OpenAIはレッドチーム演習に関する2つの論文を公開した。安全で有益なAIの実現を支援するために、人とAIを使ったレッドチーム演習がどのように進歩しているかが説明されている。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
OpenAIは2024年11月21日(米国時間)、生成AIを対象としたレッドチーム演習に関する2つの論文を公開した。同社は論文の概要について以下のように説明している。
OpenAIでは、外部の専門家を雇用するなど、長年にわたりレッドチーム演習を実施してきた。初期のレッドチーム演習は、主に手動で実施しており、テストの実施は人間に頼っていた。
レッドチーム演習の方法には、手動、自動、混合アプローチがあり、OpenAIではこれら3つ全てを使用している。新しいシステムの潜在的なリスクをテストするために、手動と自動の両方の方法で外部の専門家を雇っている。一方で、モデルの評価と、より安全なモデルへのトレーニングの両方において、強力なAI(人工知能)を使用してモデルの誤りの検出を強化できるとみている。
人によるレッドチーム演習と自動化したレッドチーム演習について取り上げた論文の内容は下記の通り。
Copyright © ITmedia, Inc. All Rights Reserved.