高度なAIでAIをテスト OpenAIが実践するAIモデルのレッドチーム演習とは人によるレッドチーム演習の4つのポイントも紹介

OpenAIはレッドチーム演習に関する2つの論文を公開した。安全で有益なAIの実現を支援するために、人とAIを使ったレッドチーム演習がどのように進歩しているかが説明されている。

» 2024年12月14日 08時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 OpenAIは2024年11月21日(米国時間)、生成AIを対象としたレッドチーム演習に関する2つの論文を公開した。同社は論文の概要について以下のように説明している。

OpenAIのレッドチーム演習のアプローチ 手動か、自動か、混合か?

 OpenAIでは、外部の専門家を雇用するなど、長年にわたりレッドチーム演習を実施してきた。初期のレッドチーム演習は、主に手動で実施しており、テストの実施は人間に頼っていた。

 レッドチーム演習の方法には、手動、自動、混合アプローチがあり、OpenAIではこれら3つ全てを使用している。新しいシステムの潜在的なリスクをテストするために、手動と自動の両方の方法で外部の専門家を雇っている。一方で、モデルの評価と、より安全なモデルへのトレーニングの両方において、強力なAI(人工知能)を使用してモデルの誤りの検出を強化できるとみている。

 人によるレッドチーム演習と自動化したレッドチーム演習について取り上げた論文の内容は下記の通り。

人によるレッドチーム演習 4つの重要なポイントとは

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。