ESETは公式ブログで、AIの悪用による詐欺が企業にとって新たな脅威となっている状況を解説し、「人」「プロセス」「技術」に焦点を当てた多層的な対応の必要性を指摘した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
ESETは2025年3月10日(スロバキア時間)に公式ブログで、AI(人工知能)の悪用による詐欺が企業にとって新たな脅威となっている状況を解説し、「人」「プロセス」「技術」に焦点を当てた多層的な対応の必要性を指摘した。
企業におけるAIの利用は、効率化やコスト削減、顧客サービスの向上、意思決定の改善など、さまざまな分野で有益な成果をもたらしている。だが、サイバー犯罪者もAIを悪用して新手の詐欺を仕掛けており、企業にとって大きな脅威となっていると、ESETは指摘している。
ESETは、サイバー犯罪者がAIやディープフェイクを悪用する手口の例として、以下を挙げている。
北朝鮮の工作員がAIツールを使って履歴書などを偽造し、採用時の身元調査をクリアして、テレワークのITフリーランサーとして企業に潜入する事例が報告されている。こうした工作員の目的は、北朝鮮政府への資金送金、データ窃盗、スパイ活動、ランサムウェア攻撃などだ。
詐欺師がディープフェイクの音声や映像を用いて企業の財務担当者をだまし、自分の管理する口座に資金を送金させる詐欺が発生している。ディープフェイクによって企業のCFO(最高財務責任者)などに成り済まし、2500万ドルを詐取した例もある。
ディープフェイクを用いて顧客に成り済まし、アカウント作成やログイン時に認証チェックを回避する詐欺も増えている。ディープフェイク動画を生成するための素材として、顔認識データを収集するためのマルウェアも存在する。最も巧妙なものの一つが「GoldPickaxe」だ。
サイバー犯罪者がSNS上で企業のCEOや著名人に成り済まし、投資詐欺を仕掛けている。
AIアルゴリズムを使って顧客や従業員のパスワードを破り、データ窃盗やランサムウェア攻撃、個人情報を不正利用する事例も増加している。
AIを用いて生成または改ざんされた書類が、銀行や企業での顧客確認を回避するために使われている。保険金詐欺にAIが使用される事例も多発しているとみられている。
AIは、サイバー攻撃の標的の偵察やソーシャルエンジニアリングを強化する目的でも使われている。これにより、ランサムウェアやデータ窃盗、フィッシング攻撃がより効率化している。
AIの悪用による詐欺は、最終的に財務的な損害や評判の低下という影響をもたらす。2024年春の調査では、過去1年間に詐欺によって失われた売上高の38%は、AIを用いた詐欺の被害によるものだったと推計しているとの報告もある。ESETは、AIによる詐欺は以下のような被害につながる可能性があると説明している。
銀行などでの顧客確認を回避することで、詐欺師が顧客口座から不正に資金を引き出すことが可能になる。
偽従業員が機密の知的財産や規制対象の顧客情報を盗んだ場合、財務、評判、コンプライアンス上の問題になる。
1件のBECで莫大(ばくだい)な損失が発生する場合がある。サイバー犯罪者は2023年にBECで29億ドル以上を稼いだと推計されている。
顧客がなりすまし詐欺の被害にあうと、忠誠心が脅かされる。ある調査では回答者の3分の1が、企業との取引の中で一度でも悪い経験をした場合、そのブランドから離れると答えている。
ESETは、AIの悪用による詐欺に対抗するには、「人」「プロセス」「技術」に焦点を当てた以下のような多層的な対応が必要だと述べている。
またESETは、AIの悪用による詐欺への対策に、AI技術を以下のように役立てることもできると述べている。
Copyright © ITmedia, Inc. All Rights Reserved.