検索
連載

企業は生成AIのセキュリティリスクとどう付き合うべきか、うっかり情報漏えいやプロンプトインジェクションへの対応方法とはNRIセキュアが解説(1/2 ページ)

ChatGPTをきっかけとして、生成AIへの関心が急速な高まりを見せている。だがセキュリティリスクも考える必要がある。企業はリスクを制御しながら、生成AIをどう活用していくべきか、NRIセキュアによる説明をお届けする。

Share
Tweet
LINE
Hatena

 企業の間で、ChatGPTをはじめとした生成AIの利用についての関心が広がる一方で、情報セキュリティに関する懸念も高まっている。

 では、企業は生成AIのセキュリティリスクをどう考え、どう付き合っていけばいいのか。本記事では、NRIセキュアテクノロジーズの山口雅史氏(コンサルティング事業統括本部長兼北米支社Security Consulting Department部長)が報道関係者に対して行った、生成AIのセキュリティリスクに関する説明を抜粋・要約してお届けする。

生成AIでマルウェア感染も、さまざまな利用リスク

 山口氏はまず、生成Aサービスの利用リスクとして8項目を挙げた。


生成Aサービスの利用リスク
  • ユーザーが生成AIサービスに社内の機密情報を誤って入力してしまい、サービスに取り込まれてしまうケース
  • 各国などで整備が進みつつある法規制に違反してしまうケース
  • 機密情報や 個人情報を入力した後、AIサービス側の管理不備によりこうした情報や利用履歴が漏れてしまうケース
  • 生成AIが誤りを含む情報を提示し(「ハルシネーション」と呼ばれる)、これをそのまま利用することに伴うリスク。特に公的機関では社会的に大きな影響を与える可能性がある
  • 生成AIで作ったコンテンツが知的財産権などの侵害につながるリスク
  • 生成AIが出力した他社の機密情報を意識せずに公開し、情報漏えいを指摘されてしまうリスク
  • マルウェア感染したサービスを使うことによる二次被害
  • 生成AIが提示したプログラムをそのまま使ったが、これに不正プログラムが生まれているケース

 このうち、セキュリティリスクに直接つながるのは機密情報の入力、マルウェアへの二次感染、不正プログラムへの取り込みだ。

       | 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

Security & Trust 記事ランキング

ページトップに戻る