Gartnerは、AIエージェントが2027年までに、アカウント侵害に関する時間を50%短縮するとの予測を明らかにした。認証情報窃取の自動化や認証通信チャネルの侵害により、認証を悪用するケースが増加する見通しだという。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Gartnerは2025年3月18日(米国時間)、AIエージェントが2027年までに、サイバー攻撃者がアカウントの侵害に要する時間を50%短縮するとの予測を明らかにした。
Gartnerのバイスプレジデントアナリストのジェレミー・ドイネ氏は「アカウントの乗っ取り(ATO:Account TakeOver)は、依然として根強い攻撃ベクトルとなっている。脆弱(ぜいじゃく)な認証情報(パスワードなど)が、さまざまな手段(データ侵害、フィッシング、ソーシャルエンジニアリング、マルウェアなど)で収集されているためだ。攻撃者は、収集された認証情報が再利用されていることを期待し、収集したデータとbotを用いて、ログイン試行を自動実行している」と指摘する。
AIエージェントは、ディープフェイク音声に基づくソーシャルエンジニアリングから、ユーザー認証情報の悪用のエンドツーエンド自動化まで、ATOのより多くのステップを自動化するとGartnerはみている。
そのため、ベンダーはAIエージェントが関与するインタラクションを検出、監視、分類するためのWeb、アプリ、API、音声チャネル製品を導入すると予想している。
Gartnerのバイスプレジデントアナリストのアキフ・カーン氏は、こう述べている。
「この進化する脅威に直面し、セキュリティリーダーは、パスワードレスでフィッシングに強いMFA(多要素認証)への移行を加速しなければならない。ユーザーが認証オプションを選択できるユースケースでは、適切な場合にはパスワードからマルチデバイスパスキーに移行するように、ユーザーに教育し、インセンティブを与えるとよいだろう」
ATOに加えて、ソーシャルエンジニアリング攻撃も、企業のサイバーセキュリティの大きな脅威になる。Gartnerは、2028年までにソーシャルエンジニアリング攻撃の40%が、経営幹部と広範な従業員を標的にすると予測している。今や攻撃者はソーシャルエンジニアリングの手法と、ディープフェイク音声やビデオなどの詐欺技術を組み合わせて、通話中に従業員をだまそうとしている。
報道されている事例はごくわずかだが、それらのインシデントは、こうした脅威が現実となっていることを浮き彫りにし、被害組織に多大な経済的損失をもたらしている。
一方、ディープフェイクの検出という課題への対応は、まだ始まったばかりだ。さまざまなプラットフォームで個人間のリアルタイム音声およびビデオコミュニケーションが進む中、多様な攻撃対象領域に、ディープフェイクが使用されるリスクもある。
Gartnerのシニアディレクターアナリストのマヌエル・アコスタ氏は「組織は市場の最新動向を把握し、詐欺技術を活用した攻撃に対抗するために、手順とワークフローを適応させる必要がある。ディープフェイクによるソーシャルエンジニアリングに特化したトレーニングを通じて、進化する脅威の状況を踏まえて従業員を教育することが重要だ」と、述べている。
Copyright © ITmedia, Inc. All Rights Reserved.
Security & Trust 記事ランキング