ESETは、生成AIがサイバー攻撃に与える影響に関する分析を公開した。AIにより今後2年間でサイバー脅威の頻度と強度が増すと警告。ランサムウェア構築支援やプロンプトインジェクションなど、AIが悪用される5つの主要な手口を解説している。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
セキュリティベンダーのESETは2025年12月、生成AI(人工知能)がサイバー攻撃に与える影響と新たな脅威環境に関する分析を発表した。AIはネットワーク防御を支援する半面、攻撃者にとっても強力なツールになっているという。
英国の国家サイバーセキュリティセンター(NCSC)は、2027年にかけてのAIの影響に関する報告書の中で、AIがサイバー侵入操作の効率性と実効性をほぼ確実に高め続け、脅威の頻度と強度が増大すると予測している。
ESETは、組織や個人が被害に遭わないために、こうした新たな攻撃ベクトルを理解することを訴えている。
AIは人間の執筆スタイルの模倣だけでなく、インターネットに公開されたシステムの脆弱(ぜいじゃく)性スキャンなどのタスクも自動化する。NCSCは、AI支援による脆弱性調査とエクスプロイト開発(VRED:Vulnerability Research and Exploit Development)への対策が、サイバーセキュリティの重要な進化を生む可能性が高いと警告している。
将来的には、AIがランサムウェア(身代金要求型マルウェア)構築を支援する可能性も指摘されている。
AIモデルを悪用する攻撃手法は、主に2つの経路でサイバー犯罪者に提供されている。
1つ目は、「WormGPT」「FraudGPT」といった、オープンソースのLLM(大規模言語モデル)を基に構築された悪意のあるツールやサービスの利用だ。
2つ目は、「ChatGPT」のような正規のAIサービスを標的とした「Jailbreak as a Service」(脱獄サービス)の利用だ。これはプロンプトインジェクション攻撃を通じて、AIのガードレールを回避し、危険なコンテンツを出力させる手法だ。外部ファイルやWebページに悪意のあるプロンプトを埋め込み、AIに要約させることで「安全ではない」出力を誘発する間接的な攻撃も増加傾向にある。
生成AIの活用により、極めて説得力が高くパーソナライズされたメールの作成が容易になった。侵害されたアカウントや公開情報を基に、メールスレッドに悪意のあるメッセージを挿入する「会話の乗っ取り」も可能になっている。
2025年1〜5月の統計では、フィッシングメールの32%は不自然に文章量が多く、LLMの利用が示唆されている。文法の誤りなどの兆候で見抜くことが困難になっているため、防御策の強化が求められる。
スミッシング(SMSを用いたフィッシング)も生成AIによって強化されている。配送業者などを装い、完璧な言語表現でリンクのクリックを促すメッセージを大規模に生成できる。AIはクリック率を向上させるために、メッセージを動的に適応させることも可能だ。
生成AIによるディープフェイクは、コンテンツの信頼性を根本から揺るがしている。技術の進歩と低価格化により、以下のような攻撃が可能になった。
Gartnerの調査では、62%の組織が過去12カ月間にディープフェイクの試みを経験していることが分かった。
AIによる攻撃リスクに対抗するため、組織と個人は以下の対策を講じる必要がある。
組織の対策は次の通り。
個人の対策は次の通り。
ESETのAI部門責任者、ユライ・ヤーノシーク氏は、今後の展望について次のように述べている。「マルウェア生成へのAI利用は当面限定的だが、ソーシャルエンジニアリング攻撃ははるかに説得力を増すと予想される。最大の懸念は、AIが生成する高品質な詐欺コンテンツだ。攻撃者は信頼性を高めるためにAIを活用しており、ユーザーは予期しないメッセージに対して細心の注意を払う必要がある」
「Claude Cowork」にファイル流出の脆弱性 巧妙な間接的プロンプトインジェクションの具体的な中身
Repromptとは何か:1クリックで情報が盗まれる生成AI攻撃の仕組み
AIを悪用する「バイブハッキング」でランサムウェア攻撃はどう変わる?Copyright © ITmedia, Inc. All Rights Reserved.