ESETは、ChatGPTの利用に伴うセキュリティとプライバシーのリスクをまとめた包括的なガイドを公開した。7つの大きなリスクや共有禁止情報の「レッドリスト」、10の保護習慣を解説している。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
セキュリティベンダーのESETは2025年12月18日(米国時間)、生成AI(人工知能)ツール「ChatGPT」の安全性とプライバシーに関する包括的なガイドを公開した。ChatGPTの利用に関して、情報漏えいにつながる可能性のあるセキュリティリスクや、特に入力しないことが推奨される“禁止リスト”などがまとめられている。
OpenAIは、セキュリティとプライバシー保護に多大な投資をしているが、それでも以下のリスクを排除できない。
2023年3月にはインメモリデータベース「Redis」のバグにより、他のユーザーのチャット履歴や支払い情報が一時的に露出する事態が発生した。加えて、2024年には10万件以上のChatGPT認証情報がダークWebで発見されている。これらは主にマルウェアによって盗まれたものであり、パスワードが窃取されるとチャット履歴全体が閲覧可能になる。
個人向けの無料版やPlus版では、デフォルト(既定)で入力内容が将来のモデルトレーニングに使用される。匿名化はされるものの、文脈から機密情報が特定される可能性がある。法人向けでは、人間による確認はセキュリティやコンプライアンス維持に必要な範囲に限定されている。
モデルのガードレールを回避するよう工夫されたプロンプトにより、制限された情報を強制的に出力させる攻撃だ。Webページなどに悪意のある指示を隠す手法も存在する。
正規のアプリケーションを装い、ログイン情報の窃取やマルウェアのインストールを目的とした偽のChatGPTアプリが多数確認されている。公式にOpenAIが公開したアプリケーションのみを利用する必要がある。
事実ではない情報をもっともらしく提示するハルシネーション(幻覚)が発生する場合がある。回答は必ず一次ソースで確認する必要がある。
サイバー攻撃に利用できるコードの生成や、フィッシングメールのテンプレート作成、ディープフェイクの生成に悪用される可能性がある。AIにより、犯罪の技術的障壁が大幅に低下している。
従業員が機密情報を不用意に入力することで、情報漏えいやコンプライアンス違反が発生する。2023年にはSamsung Electronicsの従業員がソースコードや会議録をアップロードした事例がある。IBMの「Cost of a Data Breach Report 2025」によると、グローバル組織の20%が過去1年間にシャドーAIに関連するデータ漏えいを経験したという。
ChatGPTが収集するデータとアクセス権限は以下の通りだ。
個人向けアカウントのチャットは、削除しない限り無期限に保存される。削除後は30日以内にシステムから完全に消去される仕組みだ。
以下の情報は、公に共有される可能性があるものとして扱い、絶対に入力してはならない。
欧州連合(EU)のAI法などの規制により、今後は透明性とデータガバナンスがさらに強化される見通しだ。OpenAIを含む各社は、デバイス上での処理やユーザー制御設定の拡充、リアルタイムの監査ログ提供などを進めると予測されている。
安全な利用に向け、以下の習慣を取り入れることが推奨される。
アカウントのハッキングが疑われる場合、直ちに以下の手順で対処する。
ESETのAI部門責任者、ユライ・ヤーノシーク氏は、次のように警鐘を鳴らしている。「利便性を追求するあまり、出どころや学習データが不明な『ブラックボックス』型のAIモデルを企業が導入することで、深刻なデータ漏えいやプライバシー侵害を招く恐れがある。AIによる詐欺は判別が困難になり、経験の浅い犯罪者でも説得力のある詐欺を実行できるようになる。ユーザーはこれまで以上に慎重になる必要がある」
AIがコードを書く時代、IT/AIエンジニアはどうなる? 2026年に求められる4つの役割とは
OpenAI公式チートシートが注目 プロンプト作成は「構造化エンジニアリング」に
シャドーAI(Shadow AI)とは?Copyright © ITmedia, Inc. All Rights Reserved.