OpenAIがデジタルコンテンツの真正性を保証する取り組みを紹介 C2PA参加など:AIが生成した画像かどうかを判別するツールを開発中
OpenAIはデジタルコンテンツを検証する際に必要な基準を確立するため、C2PAの運営委員会に参加すると発表した。また、同社のツールで作成されたコンテンツの真正性を研究する取り組みも併せて発表した。
OpenAIは2024年5月7日(米国時間)、C2PA(Coalition for Content Provenance and Authenticity Steering Committee)運営委員会への参加を発表した。また、それと同時に同社のコンテンツの真正性を保証するための取り組みを同社のブログで紹介した。
C2PAはデジタルコンテンツの認証に広く使用されている標準で、コンテンツのソースを証明することができる。ソフトウェア企業、カメラメーカー、オンラインプラットフォームなどの関係者によって開発、採用されている。
2024年からOpenAIは、画像生成AI「DALL-E3」、および「ChatGPT」「OpenAI API」が出力した全ての画像にC2PAのメタデータを追加している。OpenAIの動画生成モデル「Sora」についても、同モデルが広くローンチされた際には、C2PAのメタデータを追加するという。この情報は簡単に改ざんできず、共有、修正、再利用といったライフサイクルを通じてAI(人工知能)が生成したコンテンツに付随する。
C2PAを含む実証標準の普及と理解を促進するため、OpenAIはMicrosoftとともにソーシャルレジリエンス基金(Societal Resilience Fund)を立ち上げる。この基金は、AIの教育と理解を促進すべくAARP(米国退職者協会)のOlder Adults Technology Servicesなどの組織を通じて、約200万ドルを支援する。
OpenAIはC2PAに参加して自社製品の認証基準適用を進めるだけでなく、OpenAIのツールによって作成されたコンテンツかどうかを特定するのに役立つ技術の開発にも注力しているという。
生成AIコンテンツを識別するためのツールを開発
OpenAIはデジタルコンテンツの完全性を高める新しい証明方法の開発に取り組んでいる。これには、改ざん耐性のある電子透かし(音声のようなデジタルコンテンツに、除去が困難な不可視の信号をマーキングする)や検出分類器(人工知能を使用して、コンテンツが生成モデルに由来する可能性を評価するツール)の実装が含まれる。
OpenAIは、研究ラボや研究志向のジャーナリズムNPO(非営利団体)を含む最初のテスターグループに、OpenAIの検出分類器へのアクセス申請とフィードバックの受け付けを開始した。このツールは、画像がOpenAIのDALL-E3によって生成された可能性を予測するものだ。
初期バージョンの検出分類器で非AIで生成された画像とDALL-E3製品で生成された画像を区別する項目をテストしたところ、DALL-E3画像の約98%を正しく識別した。非AI生成画像の0.5%未満をDALL-E3の画像と誤認した。
OpenAIによると圧縮、トリミング、彩度変更などの一般的な変更であれば、画像検出分類器に与える影響は最小限だが、その他の修正は性能を低下させる可能性があるという。また、「DALL-E3が生成した画像と他のAIモデルが生成した画像を区別する能力は低い」と述べている。
OpenAIは、2024年5月時点で研究プレビューとして限定的にリリースしているカスタム音声モデルの「VoiceEngine」にも音声透かしを組み込んでいる。
コンテンツ認証の次の課題
OpenAIは、実際にコンテンツの真正性を促進するには、技術的なソリューションだけでなく集団的な行動が必要だとしている。
「真正性証明に関するOpenAIの取り組みは、より広範な業界の取り組みの一部にすぎない。他の研究所や生成AI企業の多くも、この分野で研究を進めている。オンラインにおける透明性を継続的に促進するためには、それぞれが協力し、洞察を共有しなければならないだろう」(OpenAI)
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
生成AIが抱えるリスクと、プラットフォームエンジニアリングで生成AIを活用するメリット
生成AI導入の最前線に立っているのは、DevOpsチームとプラットフォームエンジニアだ。生成AIが抱えるリスクを解説したり、生成AIを活用するメリットの事例として、プラットフォームエンジニアリングにおける活用事例を紹介したりする。テキスト生成AIのリスクを利用形態、想定ユースケースごとに解説 デジタル庁がガイドブックを公開
デジタル庁は、「テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)」を公開した。政府情報システムを対象に、テキスト生成AI固有と思われるリスクに焦点を当て、留意点を紹介している。AI動向の年次調査レポート「2024 AI Index Report」公開 スタンフォード大研究所
スタンフォード大学の研究所は、AI動向をまとめた最新の年次調査レポート「2024 AI Index Report」を公開した。生成AIのトレーニングコストに関する新たな推定値、責任あるAIの展望に関する詳細な分析などを報告している。