「ChatGPTプラグイン」の脆弱性についてセキュリティ研究者が開発者に警告ChatGPTプラグインではなく、GPTsの利用を推奨

TechTargetは、「ChatGPTプラグインの脆弱性」に関する記事を公開した。ChatGPTプラグインの脆弱性が発見され、OpenAIと2つのサードパーティーベンダーは修正対応した。だが、セキュリティベンダーの研究者は「ChatGPTプラグインには依然としてセキュリティリスクが存在する」と警告している。

» 2024年04月10日 08時00分 公開
[Beth PariseauTechTarget]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 TechTargetは2024年3月13日(米国時間)、「ChatGPTプラグインの脆弱(ぜいじゃく)性」に関する記事を公開した。

画像 研究者はChatGPTプラグインの脆弱性の開発者に警告する(提供:TechTarget)

 APIセキュリティベンダーSalt Securityの研究者は「ChatGPT」のプラグインの脆弱性について、OpenAIにその詳細をドキュメントとして明確にするよう提言し、開発者にはChatGPTを扱う際の潜在的なセキュリティ脆弱性への認識を深めるように呼び掛けている。

ChatGPTプラグインの脆弱性

 ChatGPTプラグインは、ChatGPTの大規模言語モデル(LLM)をサードパーティーアプリケーションに接続するための実験的な手段として2023年3月に提供された。開発者は、プラグインを使って外部APIとやりとりでき、株価やスポーツのスコアといったデータリソースにアクセスしたり、他のサービスに接続してフライトの予約や食べ物の注文などのアクションを実行したりできる。2023年11月に登場したカスタムGPT「GPTs」にその役割を譲ったものの、Salt Securityの一部門であるSalt Labsのセキュリティ研究者は「GPTsが登場した後も、ChatGPTプラグインの一部は依然として使用されている」と指摘している。

 GPTsが導入される前の2023年6月、Salt Labsの研究者は、ChatGPTプラグインのOAuth認証の実装について問題点(脆弱性)を見つけた。その脆弱性を悪用すると、機密データへのアクセスを攻撃者に許可する(攻撃者がユーザーのアカウントに悪意のあるプラグインをインストールし、機密データにアクセスすることを許可する)可能性があった。また、研究者らは、攻撃者がサードパーティーのChatGPTプラグインを通じて「OAuthのリダイレクト操作」で資格情報を盗み、「GitHub」などChatGPTに接続されたユーザーアカウントにアクセスする可能性があることも発見した。Salt Labsから通知を受け、サードパーティーのプラグインベンダーであるPluginLab.aiとKesem AIは、この脆弱性を修正。研究者らは「これらの脆弱性が悪用された証拠は見つからなかった」と述べている。

 Salt Labsのヤニヴ・バルマス氏(主任研究員)は、TechTargetのインタビューで、生成AIのセキュリティ確保の難しさについて「セキュリティ研究者として、生成AIがどのように進展していくか、その全てを追跡するのは非常に困難だ。それは攻撃者も同様だろう」とコメントしている。

 研究者らは「GPTsの利用を勧める方が、ユーザーにサードパーティーアプリケーションに接続することの潜在的なリスクを警告するには効果的だ」と考えている。また、OpenAIもGPTsの利用を推進し、ChatGPTプラグインを非推奨にする準備を進めているという。ただ、OpenAIのドキュメントの中には「GPTsのアクションはプラグインに基づいて構築されている」といった記述もある。Salt Securityはそのプラグイン内のフレームワークにある脆弱性も発見している。

Copyright © ITmedia, Inc. All Rights Reserved.

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。