AIが脆弱性を探し、ランサムウェア構築を支援 5つのAI悪用手口と対策リスト:ESET解説
ESETは、生成AIがサイバー攻撃に与える影響に関する分析を公開した。AIにより今後2年間でサイバー脅威の頻度と強度が増すと警告。ランサムウェア構築支援やプロンプトインジェクションなど、AIが悪用される5つの主要な手口を解説している。
セキュリティベンダーのESETは2025年12月、生成AI(人工知能)がサイバー攻撃に与える影響と新たな脅威環境に関する分析を発表した。AIはネットワーク防御を支援する半面、攻撃者にとっても強力なツールになっているという。
英国の国家サイバーセキュリティセンター(NCSC)は、2027年にかけてのAIの影響に関する報告書の中で、AIがサイバー侵入操作の効率性と実効性をほぼ確実に高め続け、脅威の頻度と強度が増大すると予測している。
ESETは、組織や個人が被害に遭わないために、こうした新たな攻撃ベクトルを理解することを訴えている。
AIが悪用される5つの主要な攻撃手法
自動化された偵察とランサムウェア構築支援
AIは人間の執筆スタイルの模倣だけでなく、インターネットに公開されたシステムの脆弱(ぜいじゃく)性スキャンなどのタスクも自動化する。NCSCは、AI支援による脆弱性調査とエクスプロイト開発(VRED:Vulnerability Research and Exploit Development)への対策が、サイバーセキュリティの重要な進化を生む可能性が高いと警告している。
将来的には、AIがランサムウェア(身代金要求型マルウェア)構築を支援する可能性も指摘されている。
プロンプトインジェクションとモデルの悪用
AIモデルを悪用する攻撃手法は、主に2つの経路でサイバー犯罪者に提供されている。
1つ目は、「WormGPT」「FraudGPT」といった、オープンソースのLLM(大規模言語モデル)を基に構築された悪意のあるツールやサービスの利用だ。
2つ目は、「ChatGPT」のような正規のAIサービスを標的とした「Jailbreak as a Service」(脱獄サービス)の利用だ。これはプロンプトインジェクション攻撃を通じて、AIのガードレールを回避し、危険なコンテンツを出力させる手法だ。外部ファイルやWebページに悪意のあるプロンプトを埋め込み、AIに要約させることで「安全ではない」出力を誘発する間接的な攻撃も増加傾向にある。
精緻化されたフィッシングメール
生成AIの活用により、極めて説得力が高くパーソナライズされたメールの作成が容易になった。侵害されたアカウントや公開情報を基に、メールスレッドに悪意のあるメッセージを挿入する「会話の乗っ取り」も可能になっている。
2025年1〜5月の統計では、フィッシングメールの32%は不自然に文章量が多く、LLMの利用が示唆されている。文法の誤りなどの兆候で見抜くことが困難になっているため、防御策の強化が求められる。
スミッシングによる詐欺
スミッシング(SMSを用いたフィッシング)も生成AIによって強化されている。配送業者などを装い、完璧な言語表現でリンクのクリックを促すメッセージを大規模に生成できる。AIはクリック率を向上させるために、メッセージを動的に適応させることも可能だ。
ディープフェイクによるなりすまし
生成AIによるディープフェイクは、コンテンツの信頼性を根本から揺るがしている。技術の進歩と低価格化により、以下のような攻撃が可能になった。
- 役員の音声や映像を模倣し、従業員に多額の送金を促す
ある多国籍企業の財務担当者が、ディープフェイクで生成されたCFO(最高財務責任者)らとの会議によって、多額の支払いをだまし取られた事例がある - 誘拐や医療上の緊急事態を装い、友人や家族に身代金や送金を要求する
- ディープフェイク画像や動画を用いた恐喝
- (北朝鮮が何年も行ってきたような)採用調査を回避してリモート雇用を得る試み
Gartnerの調査では、62%の組織が過去12カ月間にディープフェイクの試みを経験していることが分かった。
AIによる攻撃の被害を防ぐ、組織・個人の対策
AIによる攻撃リスクに対抗するため、組織と個人は以下の対策を講じる必要がある。
組織の対策は次の通り。
- 財務承認や送金に関するポリシーを更新する
- ディープフェイクやAIフィッシングの認識に関する従業員研修を更新する
- 不審な挙動を検知するための継続的な監視を導入する
- AI生成テキストやディープフェイクを特定するツールに投資する
- フィッシング耐性のある多要素認証(MFA)を導入する
- ゼロトラストセキュリティアプローチを実装し、最小権限の原則を適用する
個人の対策は次の通り。
- 「至急の送金依頼」などは、別のチャネルを通じて事実確認を行う
- フィッシングなどのソーシャルエンジニアリングがよく使う「緊急性」に惑わされず、冷静に対処する
- 心当たりのないメールやテキストのリンクをクリックしない
- SNS(ソーシャルネットワーキングサービス)での情報の過剰な共有を避ける
- SNSの設定をプライベートモードに変更し、AIによるスクレイピングを防ぐ
- ソフトウェアやOSを常に最新の状態に保つ
- 強力で固有のパスワードを使い、MFAやパスキーを利用する
- 信頼できるベンダーのセキュリティアプリを使用する
- ビデオの不自然な口の動きなど、ディープフェイクの兆候に注意する
ESETのAI部門責任者、ユライ・ヤーノシーク氏は、今後の展望について次のように述べている。「マルウェア生成へのAI利用は当面限定的だが、ソーシャルエンジニアリング攻撃ははるかに説得力を増すと予想される。最大の懸念は、AIが生成する高品質な詐欺コンテンツだ。攻撃者は信頼性を高めるためにAIを活用しており、ユーザーは予期しないメッセージに対して細心の注意を払う必要がある」
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
「Claude Cowork」にファイル流出の脆弱性 巧妙な間接的プロンプトインジェクションの具体的な中身
Anthropicが公開したAIエージェントのプレビュー版「Claude Cowork」に、ローカルファイル流出の脆弱性が存在することが分かった。巧妙な間接的プロンプトインジェクションを駆使しているという。
Repromptとは何か:1クリックで情報が盗まれる生成AI攻撃の仕組み
チャットAIを狙う新手の攻撃「Reprompt」は、1クリックで命令が注入され、裏側で情報流出が連鎖し得る点が厄介。気付かないうちに被害が進む仕組みと、開発者が押さえるべき対策の考え方を整理する。
AIを悪用する「バイブハッキング」でランサムウェア攻撃はどう変わる?
Akamaiは、2026年のAPAC地域のセキュリティとクラウドに関する予測を発表した。AI攻撃の自律化により、サイバー攻撃の所要時間が数時間に短縮されると警鐘を鳴らしている。