ChatGPTなどのLLMを狙う「プロンプトインジェクション攻撃」「データポイズニング攻撃」とは? NCSC機械学習モデルにも、サイバーセキュリティ原則の適用が不可欠

NCSCは、LLMの普及とともに「プロンプトインジェクション攻撃」や「データポイズニング攻撃」の危険性が高まっていると注意喚起した。

» 2023年09月16日 08時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 英国サイバーセキュリティセンター(NCSC)は2023年8月30日(英国時間)、近年広範に普及する大規模言語モデル(LLM)における2点の脆弱(ぜいじゃく)性を指摘した。

 「ChatGPT」「Google Bard」などの大規模言語モデルは、膨大な量のテキストデータで訓練されたアルゴリズムを使用しており、ユーザーのプロンプトに対して驚くほど人間に近い応答を生成できる。しかし、LLMには「プロンプトインジェクション攻撃」や「データポイズニング攻撃」のリスクがあると、NCSCは述べている。

プロンプトインジェクション攻撃とは

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

AI for エンジニアリング
「サプライチェーン攻撃」対策
1P情シスのための脆弱性管理/対策の現実解
OSSのサプライチェーン管理、取るべきアクションとは
Microsoft & Windows最前線2024
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。