検索
連載

企業は生成AIのセキュリティリスクとどう付き合うべきか、うっかり情報漏えいやプロンプトインジェクションへの対応方法とはNRIセキュアが解説(1/2 ページ)

ChatGPTをきっかけとして、生成AIへの関心が急速な高まりを見せている。だがセキュリティリスクも考える必要がある。企業はリスクを制御しながら、生成AIをどう活用していくべきか、NRIセキュアによる説明をお届けする。

Share
Tweet
LINE
Hatena

 企業の間で、ChatGPTをはじめとした生成AIの利用についての関心が広がる一方で、情報セキュリティに関する懸念も高まっている。

 では、企業は生成AIのセキュリティリスクをどう考え、どう付き合っていけばいいのか。本記事では、NRIセキュアテクノロジーズの山口雅史氏(コンサルティング事業統括本部長兼北米支社Security Consulting Department部長)が報道関係者に対して行った、生成AIのセキュリティリスクに関する説明を抜粋・要約してお届けする。

生成AIでマルウェア感染も、さまざまな利用リスク

 山口氏はまず、生成Aサービスの利用リスクとして8項目を挙げた。


生成Aサービスの利用リスク
  • ユーザーが生成AIサービスに社内の機密情報を誤って入力してしまい、サービスに取り込まれてしまうケース
  • 各国などで整備が進みつつある法規制に違反してしまうケース
  • 機密情報や 個人情報を入力した後、AIサービス側の管理不備によりこうした情報や利用履歴が漏れてしまうケース
  • 生成AIが誤りを含む情報を提示し(「ハルシネーション」と呼ばれる)、これをそのまま利用することに伴うリスク。特に公的機関では社会的に大きな影響を与える可能性がある
  • 生成AIで作ったコンテンツが知的財産権などの侵害につながるリスク
  • 生成AIが出力した他社の機密情報を意識せずに公開し、情報漏えいを指摘されてしまうリスク
  • マルウェア感染したサービスを使うことによる二次被害
  • 生成AIが提示したプログラムをそのまま使ったが、これに不正プログラムが生まれているケース

 このうち、セキュリティリスクに直接つながるのは機密情報の入力、マルウェアへの二次感染、不正プログラムへの取り込みだ。

Copyright © ITmedia, Inc. All Rights Reserved.

       | 次のページへ

Security & Trust 記事ランキング

  1. 増える標的型ランサムウェア被害、現場支援から見えてきた実態と、脆弱性対応が「限界」の理由
  2. 日本人の約半数が「1年前より危険」と考えるオンライン詐欺とは マカフィーがホリデーショッピング詐欺に関して調査
  3. Google Cloudがサイバーフィジカルシステムのレジリエンスを高める10の指標を解説 最初にすべきことは?
  4. ランサムウェア攻撃を受けた企業、約6割が「サプライチェーンのパートナー経由で影響を受けた」 OpenText調査
  5. セキュリティ担当者の54%が「脅威検知ツールのせいで仕事が増える」と回答、懸念の正体とは? Vectra AI調査
  6. 「このままゼロトラストへ進んでいいの?」と迷う企業やこれから入門する企業も必見、ゼロトラストの本質、始め方/進め方が分かる無料の電子書籍
  7. 米国/英国政府が勧告する25の脆弱性、活発に悪用されている9件のCVEとは、その対処法は? GreyNoise Intelligence調査
  8. 長続きする高度セキュリティ人材育成の秘訣を「第19回情報危機管理コンテスト」から探る
  9. セキュリティ専門家も「何かがおかしいけれど、攻撃とは言い切れない」と判断に迷う現象が急増 EGセキュアソリューションズ
  10. MicrosoftがAD認証情報を盗むサイバー攻撃「Kerberoasting」を警告 検知/防御方法は?
ページトップに戻る