大規模言語モデル(LLM)の思わぬリスクとは? セキュリティやプライバシーの懸念とその軽減策を解説基本の徹底が重要

セキュリティ企業ESETは公式ブログで、大規模言語モデル(LLM)のセキュリティやプライバシー上の主なリスクを5つ挙げ、企業がこれらを軽減するためにすべきことを概説した。

» 2023年11月09日 08時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 スロバキアのセキュリティ企業ESETは2023年11月6日(スロバキア時間)に公式ブログで、大規模言語モデル(LLM)のセキュリティやプライバシー上の主なリスクを5つ挙げ、企業がこれらを軽減するためにすべきことを概説した。

 最近では、「ChatGPT」や「Bard」のような生成AIが盛んにもてはやされているが、企業が生成AIを活用するためには、生成AIの基盤であるLLMの隠れたリスクも管理できなければならないと、ESETは述べている。

 ESETは、LLMのセキュリティやプライバシー上の主なリスクとして、以下の5つを挙げている。

1.機密データの過剰な共有

 LLMベースのチャットbotにデータを入力すると、そのデータがLLMに吸収され、他の人が利用できるようになったり、将来のLLMのトレーニングに使われたりする可能性がある。

2.著作権の問題

 LLMは、大量のデータでトレーニングされている。だが、その情報は多くの場合、コンテンツ所有者の明確な許可なしにWebからスクレイピングされている。そのため、LLMを使用すると、著作権の問題が生じる可能性がある。だが、特定のトレーニングデータの原典を見つけることは困難であり、こうした問題を軽減するのは難しい。

3.安全でないコード

Copyright © ITmedia, Inc. All Rights Reserved.

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。