AIエージェントが変えるサイバー攻撃 アカウント侵害に要する時間は半分に Gartner予測:認証情報の悪用など、多くの作業を自動化
Gartnerは、AIエージェントが2027年までに、アカウント侵害に関する時間を50%短縮するとの予測を明らかにした。認証情報窃取の自動化や認証通信チャネルの侵害により、認証を悪用するケースが増加する見通しだという。
Gartnerは2025年3月18日(米国時間)、AIエージェントが2027年までに、サイバー攻撃者がアカウントの侵害に要する時間を50%短縮するとの予測を明らかにした。
Gartnerのバイスプレジデントアナリストのジェレミー・ドイネ氏は「アカウントの乗っ取り(ATO:Account TakeOver)は、依然として根強い攻撃ベクトルとなっている。脆弱(ぜいじゃく)な認証情報(パスワードなど)が、さまざまな手段(データ侵害、フィッシング、ソーシャルエンジニアリング、マルウェアなど)で収集されているためだ。攻撃者は、収集された認証情報が再利用されていることを期待し、収集したデータとbotを用いて、ログイン試行を自動実行している」と指摘する。
AIエージェントがサイバー攻撃の多くのステップを自動化
AIエージェントは、ディープフェイク音声に基づくソーシャルエンジニアリングから、ユーザー認証情報の悪用のエンドツーエンド自動化まで、ATOのより多くのステップを自動化するとGartnerはみている。
そのため、ベンダーはAIエージェントが関与するインタラクションを検出、監視、分類するためのWeb、アプリ、API、音声チャネル製品を導入すると予想している。
Gartnerのバイスプレジデントアナリストのアキフ・カーン氏は、こう述べている。
「この進化する脅威に直面し、セキュリティリーダーは、パスワードレスでフィッシングに強いMFA(多要素認証)への移行を加速しなければならない。ユーザーが認証オプションを選択できるユースケースでは、適切な場合にはパスワードからマルチデバイスパスキーに移行するように、ユーザーに教育し、インセンティブを与えるとよいだろう」
ソーシャルエンジニアリング攻撃の増加と拡大に対する防御
ATOに加えて、ソーシャルエンジニアリング攻撃も、企業のサイバーセキュリティの大きな脅威になる。Gartnerは、2028年までにソーシャルエンジニアリング攻撃の40%が、経営幹部と広範な従業員を標的にすると予測している。今や攻撃者はソーシャルエンジニアリングの手法と、ディープフェイク音声やビデオなどの詐欺技術を組み合わせて、通話中に従業員をだまそうとしている。
報道されている事例はごくわずかだが、それらのインシデントは、こうした脅威が現実となっていることを浮き彫りにし、被害組織に多大な経済的損失をもたらしている。
一方、ディープフェイクの検出という課題への対応は、まだ始まったばかりだ。さまざまなプラットフォームで個人間のリアルタイム音声およびビデオコミュニケーションが進む中、多様な攻撃対象領域に、ディープフェイクが使用されるリスクもある。
Gartnerのシニアディレクターアナリストのマヌエル・アコスタ氏は「組織は市場の最新動向を把握し、詐欺技術を活用した攻撃に対抗するために、手順とワークフローを適応させる必要がある。ディープフェイクによるソーシャルエンジニアリングに特化したトレーニングを通じて、進化する脅威の状況を踏まえて従業員を教育することが重要だ」と、述べている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
ニセ従業員など新たな手口をふくめ、AIを悪用する詐欺をESETがまとめて指摘 どう対策すればいいのか?
ESETは公式ブログで、AIの悪用による詐欺が企業にとって新たな脅威となっている状況を解説し、「人」「プロセス」「技術」に焦点を当てた多層的な対応の必要性を指摘した。日本人の約半数が「1年前より危険」と考えるオンライン詐欺とは マカフィーがホリデーショッピング詐欺に関して調査
マカフィーは「2024年ホリデーショッピング詐欺に関する調査」の結果を発表した。巧妙化したAI詐欺によって一般消費者が金銭的な損失を被るリスクが高まっている。セキュリティ意識を高めて警戒を怠らないことが重要だ。企業は生成AIのセキュリティリスクとどう付き合うべきか、うっかり情報漏えいやプロンプトインジェクションへの対応方法とは
ChatGPTをきっかけとして、生成AIへの関心が急速な高まりを見せている。だがセキュリティリスクも考える必要がある。企業はリスクを制御しながら、生成AIをどう活用していくべきか、NRIセキュアによる説明をお届けする。