Darktraceは、メールセキュリティに関する調査結果を発表した。それによると「ジェネレーティブAIで作成された本物と見分けが着かない詐欺メールに脅威を感じている」と回答した割合は82%だった。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Darktraceは、2023年4月3日(米国時間)、メールセキュリティに関する調査結果を発表した。これは世界6カ国(英国、米国、フランス、ドイツ、オーストラリア、オランダ)の企業の従業員を対象に、メールセキュリティについて調査したもので、711人から有効回答を得た。
「ChatGPT」が話題となっている。プログラミング作成を支援させたりメールの文面を考えさせたりといったことに利用できるため、積極的に業務利用している企業も珍しくない。だが、そのメリットを享受できるのはサイバー攻撃者たちも同じだ。
調査結果によると、30%が「過去に詐欺のメールやSMSに引っ掛かったことがある」と回答し、70%が「過去6カ月間に詐欺メールの頻度が増えた」と回答している。Darktraceのメールセキュリティサービスが観測した、「ジェネレーティブAIで作成されたと思われるフィッシングメールによる攻撃」の件数は、2023年1月から2023年2月にかけて35ポイント増加していた。
フィッシングメールだと思うメールの特徴のトップ3は、「リンクのクリックや添付ファイルの開封を促される」(68%)、「不明な送信者や予想外の内容」(61%)、「スペルや文法の使い方が悪い」(61%)だった。しかし、ジェネレーティブAIを使えば、こういった分かりやすい特徴のないメールを作成することは可能だ。調査結果によると82%が「ジェネレーティブAIで作成された本物と見分けがつかない詐欺メールに脅威を感じている」と回答している。
Darktraceはこの調査結果を受けて、次のように述べている。
「AIによる攻撃が増えた世界では通信の真偽を判断する責任を人間に負わせることはできない。メールフィルタリング機能はあるが、過信できない。調査結果によると79%が『メールフィルタリング機能が正しい重要なメールを誤って隔離してしまった』と回答している。この状況に対応できるのは自己学習型AIを使ったメールセキュリティだ。AIが利用者や各組織の通常の生活パターンを学習することで『その人の受信トレイにふさわしくないもの』を判断できる」
Copyright © ITmedia, Inc. All Rights Reserved.