ChatGPTに「入力してはいけない情報」5選――NGリストとその理由ESETが解説、利用時のリスクと対策

ESETは、ChatGPTの利用に伴うセキュリティとプライバシーのリスクをまとめた包括的なガイドを公開した。7つの大きなリスクや共有禁止情報の「レッドリスト」、10の保護習慣を解説している。

» 2026年01月21日 13時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 セキュリティベンダーのESETは2025年12月18日(米国時間)、生成AI(人工知能)ツール「ChatGPT」の安全性とプライバシーに関する包括的なガイドを公開した。ChatGPTの利用に関して、情報漏えいにつながる可能性のあるセキュリティリスクや、特に入力しないことが推奨される“禁止リスト”などがまとめられている。

ChatGPTの安全性とプライバシーに関する包括的なガイドを公開(提供:ESET)

ChatGPTの“7つのセキュリティリスク”

 OpenAIは、セキュリティとプライバシー保護に多大な投資をしているが、それでも以下のリスクを排除できない。

1.データ漏えいと認証情報の盗難

 2023年3月にはインメモリデータベース「Redis」のバグにより、他のユーザーのチャット履歴や支払い情報が一時的に露出する事態が発生した。加えて、2024年には10万件以上のChatGPT認証情報がダークWebで発見されている。これらは主にマルウェアによって盗まれたものであり、パスワードが窃取されるとチャット履歴全体が閲覧可能になる。

2.プライバシーとAIのトレーニング

 個人向けの無料版やPlus版では、デフォルト(既定)で入力内容が将来のモデルトレーニングに使用される。匿名化はされるものの、文脈から機密情報が特定される可能性がある。法人向けでは、人間による確認はセキュリティやコンプライアンス維持に必要な範囲に限定されている。

3.プロンプトインジェクション攻撃

 モデルのガードレールを回避するよう工夫されたプロンプトにより、制限された情報を強制的に出力させる攻撃だ。Webページなどに悪意のある指示を隠す手法も存在する。

4.偽アプリケーションとフィッシング詐欺

 正規のアプリケーションを装い、ログイン情報の窃取やマルウェアのインストールを目的とした偽のChatGPTアプリが多数確認されている。公式にOpenAIが公開したアプリケーションのみを利用する必要がある。

5.情報の誤りとハルシネーション

 事実ではない情報をもっともらしく提示するハルシネーション(幻覚)が発生する場合がある。回答は必ず一次ソースで確認する必要がある。

6.マルウェアとソーシャルエンジニアリング

 サイバー攻撃に利用できるコードの生成や、フィッシングメールのテンプレート作成、ディープフェイクの生成に悪用される可能性がある。AIにより、犯罪の技術的障壁が大幅に低下している。

7.職場における「シャドーAI」

 従業員が機密情報を不用意に入力することで、情報漏えいやコンプライアンス違反が発生する。2023年にはSamsung Electronicsの従業員がソースコードや会議録をアップロードした事例がある。IBMの「Cost of a Data Breach Report 2025」によると、グローバル組織の20%が過去1年間にシャドーAIに関連するデータ漏えいを経験したという。

収集されるデータの種類とアクセス権

 ChatGPTが収集するデータとアクセス権限は以下の通りだ。

  • プロンプトと履歴
    • 入力内容やAIの回答、アップロードされたファイル、画像。モデルトレーニングのために認可されたスタッフがアクセスする場合がある(オプトアウト可能)
  • アカウント詳細
    • メールアドレス、氏名、電話番号、支払い情報。請求やサポートのために利用される
  • 利用状況データ
    • IPアドレス、ブラウザ、デバイスタイプ、位置情報。分析やセキュリティ監視に利用される

 個人向けアカウントのチャットは、削除しない限り無期限に保存される。削除後は30日以内にシステムから完全に消去される仕組みだ。

共有を避けるべき「レッドリスト」

 以下の情報は、公に共有される可能性があるものとして扱い、絶対に入力してはならない。

  1. 個人識別情報
    • 社会保障番号、パスポート番号、住所など
  2. 財務情報
    • カード番号、銀行口座、納税者番号など
  3. パスワード・秘密情報
    • API(アプリケーションプログラミングインタフェース)キー、MFA(多要素認証)トークンなど
  4. 企業の機密データ
    • ソースコード、顧客名簿、内部文書、非公開の財務報告書、法的文書など
  5. 健康情報
    • 一般データ保護規則(GDPR)などの対象となるデータ

 欧州連合(EU)のAI法などの規制により、今後は透明性とデータガバナンスがさらに強化される見通しだ。OpenAIを含む各社は、デバイス上での処理やユーザー制御設定の拡充、リアルタイムの監査ログ提供などを進めると予測されている。

ChatGPTに入力してはならないレッドリスト(提供:ESET)

データを守るための10の習慣

 安全な利用に向け、以下の習慣を取り入れることが推奨される。

  • 公式プラットフォーム(chat.openai.com)や正規アプリケーションのみを利用する
  • パスワードマネジャーを使用して強固で固有のパスワードを設定する
  • MFAを有効にする
  • 「モデルの改善」をオフにする(設定→データコントロールから変更可能)
  • 機密性の高いトピックは保存・トレーニングされない「一時チャット」をオンにする
  • 実情報の代わりに匿名化された例を使用する
  • 公共Wi-FiではVPN(仮想プライベートネットワーク)を使用して通信を暗号化する
  • チャット履歴を定期的に削除する
  • 共有デバイスでは必ずログアウトする
  • 前述の「レッドリスト」を順守する

アカウントが侵害された際の対応

 アカウントのハッキングが疑われる場合、直ちに以下の手順で対処する。

  • パスワードを即座に変更する
  • MFAを有効にする
  • 身に覚えのないAPIキーを確認し、失効させる
  • OpenAIのサポートにインシデントを報告する
  • 不審なアクティビティーがないかどうか履歴を確認する
  • 全てのデバイスからログアウトする
  • デバイスのアンチマルウェアスキャンを実行する

 ESETのAI部門責任者、ユライ・ヤーノシーク氏は、次のように警鐘を鳴らしている。「利便性を追求するあまり、出どころや学習データが不明な『ブラックボックス』型のAIモデルを企業が導入することで、深刻なデータ漏えいやプライバシー侵害を招く恐れがある。AIによる詐欺は判別が困難になり、経験の浅い犯罪者でも説得力のある詐欺を実行できるようになる。ユーザーはこれまで以上に慎重になる必要がある」

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

スポンサーからのお知らせPR

注目のテーマ

Microsoft & Windows最前線2026
人に頼れない今こそ、本音で語るセキュリティ「モダナイズ」
4AI by @IT - AIを作り、動かし、守り、生かす
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。