ニュース
大規模言語モデル(LLM)の思わぬリスクとは? セキュリティやプライバシーの懸念とその軽減策を解説:基本の徹底が重要
セキュリティ企業ESETは公式ブログで、大規模言語モデル(LLM)のセキュリティやプライバシー上の主なリスクを5つ挙げ、企業がこれらを軽減するためにすべきことを概説した。
スロバキアのセキュリティ企業ESETは2023年11月6日(スロバキア時間)に公式ブログで、大規模言語モデル(LLM)のセキュリティやプライバシー上の主なリスクを5つ挙げ、企業がこれらを軽減するためにすべきことを概説した。
最近では、「ChatGPT」や「Bard」のような生成AIが盛んにもてはやされているが、企業が生成AIを活用するためには、生成AIの基盤であるLLMの隠れたリスクも管理できなければならないと、ESETは述べている。
ESETは、LLMのセキュリティやプライバシー上の主なリスクとして、以下の5つを挙げている。
1.機密データの過剰な共有
LLMベースのチャットbotにデータを入力すると、そのデータがLLMに吸収され、他の人が利用できるようになったり、将来のLLMのトレーニングに使われたりする可能性がある。
2.著作権の問題
LLMは、大量のデータでトレーニングされている。だが、その情報は多くの場合、コンテンツ所有者の明確な許可なしにWebからスクレイピングされている。そのため、LLMを使用すると、著作権の問題が生じる可能性がある。だが、特定のトレーニングデータの原典を見つけることは困難であり、こうした問題を軽減するのは難しい。
3.安全でないコード
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- AI活用のセキュリティツール「Microsoft Security Copilot」、早期アクセスプログラムが始動
Microsoftは、生成AIを用いたセキュリティ分析ツール「Microsoft Security Copilot」について、早期アクセスプログラムの開始と重要な新機能の追加を発表した。 - 技術レポートで報告された「生成AIと開発生産性」の深い関係とは
技術コンサルタント会社のThoughtworksは技術レポート「Technology Radar」第29版を公開した。Thoughtworksは「生成AIが開発者の生産性向上にどのように役立つか探求した」としている。 - ChatGPTなどのLLMを狙う「プロンプトインジェクション攻撃」「データポイズニング攻撃」とは? NCSC
NCSCは、LLMの普及とともに「プロンプトインジェクション攻撃」や「データポイズニング攻撃」の危険性が高まっていると注意喚起した。