セキュリティ企業ESETは公式ブログで、大規模言語モデル(LLM)のセキュリティやプライバシー上の主なリスクを5つ挙げ、企業がこれらを軽減するためにすべきことを概説した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
スロバキアのセキュリティ企業ESETは2023年11月6日(スロバキア時間)に公式ブログで、大規模言語モデル(LLM)のセキュリティやプライバシー上の主なリスクを5つ挙げ、企業がこれらを軽減するためにすべきことを概説した。
最近では、「ChatGPT」や「Bard」のような生成AIが盛んにもてはやされているが、企業が生成AIを活用するためには、生成AIの基盤であるLLMの隠れたリスクも管理できなければならないと、ESETは述べている。
ESETは、LLMのセキュリティやプライバシー上の主なリスクとして、以下の5つを挙げている。
LLMベースのチャットbotにデータを入力すると、そのデータがLLMに吸収され、他の人が利用できるようになったり、将来のLLMのトレーニングに使われたりする可能性がある。
LLMは、大量のデータでトレーニングされている。だが、その情報は多くの場合、コンテンツ所有者の明確な許可なしにWebからスクレイピングされている。そのため、LLMを使用すると、著作権の問題が生じる可能性がある。だが、特定のトレーニングデータの原典を見つけることは困難であり、こうした問題を軽減するのは難しい。
Copyright © ITmedia, Inc. All Rights Reserved.