チャットAIを狙う新手の攻撃「Reprompt」は、1クリックで命令が注入され、裏側で情報流出が連鎖し得る点が厄介。気付かないうちに被害が進む仕組みと、開発者が押さえるべき対策の考え方を整理する。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Reprompt(リプロンプト)とは、生成AI(LLM:大規模言語モデル)を標的とした新しい攻撃手法である。Microsoft CopilotなどのAIアシスタントが備える入力機構を悪用し、正規のリンクを1回クリックさせるだけで、攻撃者が多段階に“再プロンプト”(追加の指示注入)を行い、機密情報の窃取(外部への持ち出し)や意図しない操作の誘発につなげ得る点が特徴だ。
データセキュリティソリューションを提供するVaronis(バロニス)が発見し、警鐘を鳴らしている。なおCopilotでは、この問題に対するパッチが既に適用済みである。
Reprompt攻撃の最大の特徴は、ユーザーがリンクを1回クリックするだけでCopilotが起動し、悪意ある命令文(プロンプト)が入力として注入され、ユーザーが気付かない裏側で「攻撃者からの指示」と「情報送信」が多段階に繰り返される点にある。画面上ではAIとのやりとりは1回きりのように見えるかもしれない。しかし内部では、AIが攻撃者のサーバと何度も通信し、次々と新しい指令(Reprompt=再プロンプト)を受け取っては実行する処理が継続してしまうのだ。
――ここからは『Deep Insider Brief』恒例の“ひと言コメント”として、今回の発表から技術の“今”を少し深く見ていく。
Deep Insider編集長の一色です。こんにちは。
Repromptの恐ろしさは、たった一度のクリックを入口に、AIが裏側で“スパイ化”し、ユーザーのコンテキスト(背景情報)を利用して情報を外部へ送信し続け得る点にあります。画面上の異変にほとんど気付けないため、被害が拡大しやすいことも厄介です。
外部データを読み込むAIアプリケーションを開発する際は、常にこの「間接的な命令注入(プロンプトインジェクション)」のリスクを意識する必要があります。特に以下のような実装は、攻撃の足がかりになりやすいため注意が必要です。
対策の基本は「外部からの入力は全て攻撃の可能性があると見なす」ことです。権限を最小限に絞る、重要なアクションの前には必ず人間の承認を挟むなど、従来のWebセキュリティと同様に「信頼境界(Trust Boundary:どこまでが安全で、どこからが危険か)」を明確にした設計が求められますね。
以下では、Reprompt攻撃の流れと被害例を、図と箇条書きでコンパクトに紹介する。
Varonisの解説に基づく攻撃フローは以下の通りだ。
攻撃者はAIとの会話を通じて、以下のような情報を盗み出そうとする。
Copyright© Digital Advantage Corp. All Rights Reserved.