Microsoft、ディープフェイク検出技術「Microsoft Video Authenticator」などを発表コンテンツが改変されていないことを保証する技術も登場

Microsoftは、写真や動画が改変されている可能性をパーセントで表示するディープフェイク検出技術「Microsoft Video Authenticator」を発表した。コンテンツが改変されていないことを保証する技術も併せて公開した。

» 2020年09月11日 17時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 Microsoftは2020年9月1日(米国時間)、ディープフェイク検出技術「Microsoft Video Authenticator」を発表した。

 ディープフェイク(「合成メディア」とも呼ばれる)は、改変操作された写真、動画、音声ファイルのうち、特に人工知能(AI)を使って判明しにくいように巧妙に細工されたものを指す用語だ。写っている人物が本当は言っていないことを言わせたり、本当はその場所にはいないのにもかかわらず、いるように見せかけたりする。

 ディープフェイクはニュース記事などのメディアにも出現しており、社会問題となっている。米国の大統領選挙が近づく中、今回の検出技術は、ユーザーがディープフェイクを見分けるための有益なツールになるとMicrosoftは述べている。

 Video Authenticatorは写真や動画を分析し、コンテンツが人工的に操作されている可能性をパーセントで示す。これは信頼度スコアと捉えることもできる。動画の場合、再生中のフレームごとにパーセントを表示できる。人間の目では見つけにくいディープフェイク特有の「継ぎ目」や、微妙な色あせ、グレースケールの要素を検出することで、こうした機能を提供する。

メディアが人工的に操作されている可能性をパーセントで示す「Microsoft Video Authenticator」(出典:Microsoftクリックで再生

 Video Authenticatorを開発したのはMicrosoft Researchだ。MicrosoftのResponsible AI(責任あるAI)チームとMicrosoft AI, Ethics and Effects in Engineering and Research(AETHER)Committeeの協力を得ている。開発に当たっては、「Face Forensic++」の公開データセットを使用し、「DeepFake Detection Challenge Dataset」を使ってテストを進めた。Face Forensic++とDeepFake Detection Challenge Datasetは、先進的なモデルに基づいて作成されたディープフェイク検出技術のトレーニングとテストのためのデータセットだ。

 ディープフェイクのような合成メディアを生成するAIは、継続的な学習が可能だ。そのため、合成メディアの生成方法が巧妙化し続けるとMicrosoftは予想している。「AIによる検出方法には、いずれも一定の誤認率があるため、われわれは、検出方法をすり抜けるディープフェイクがあることを理解し、すり抜けたものに対処する準備を整えなければならない」との見解も示している。

ニュース記事の真正性を保証する技術も開発

 何が真実で正確なのか読者を助けるという課題は、単一のテクノロジーでは解決できないとMicrosoftは指摘している。Video Authenticatorによる写真や動画の確認だけでは足りない。

 「長期的には、ニュース記事などのメディアの真正性を維持し、保証する強力な方法を追求する必要がある」とMicrosoftは述べている。読者に対し、「オンラインで見ているメディアが、信頼できる発信元から提供されており、改変されていない」ことを保証するためのツールは、現時点ではほとんどないという。

 このことを踏まえ、Microsoftは操作されたコンテンツを検出するとともに、自分が見ているメディアは真正なものであることをユーザーに保証する新技術も発表した。この技術は2つのコンポーネントを含む。

 一つは、「Microsoft Azure」に組み込まれたツールだ。コンテンツ作成者が、デジタルハッシュと証明書をコンテンツに追加できるようになる。ハッシュと証明書は、コンテンツがオンラインでどこに移動しても、メタデータとしてコンテンツに付属する。

 もう一つのコンポーネントは、証明書をチェックし、ハッシュを照合する読み取りツール(Webブラウザの拡張機能などの形態を取る)だ。このツールによってユーザーは、コンテンツが真正であり、改変されていないことを高い精度で知ることができる他、コンテンツ作成者の詳細も分かる。

 この新技術は、MicrosoftのDefending Democracy Programとの協力の下で、Microsoft ResearchとMicrosoft Azureによって開発された。この技術は、BBCが最近発表した「Project Origin」という取り組みの基盤として使用される。

他の組織とも連携

 誤報はもちろん、有害なディープフェイクに対抗するためには、Microsoftだけでは難しい。そこで、2つのパートナーシップを発表した。

 まず、サンフランシスコを拠点とする企業であるAI Foundationと提携した。報道機関や政治キャンペーンなど、民主的なプロセスに関わる組織がVideo Authenticatorを利用する窓口を提供する。Video AuthenticatorはAI FoundationのReality Defender 2020(RD2020)イニシアチブを通じてのみ、利用可能だ。

 そして、BBCやCBC、Radio-Canada、New York Timesなどのメディア企業のコンソーシアムと「Project Origin」という形で提携した。加えてさまざまな出版社やソーシャルメディア企業が参加するTrusted News Initiativeも、今回の技術に参加することに同意している。Microsoftは、今後数カ月の間に、この分野での取り組みをさらに多くのテクノロジー企業、ニュース出版社、ソーシャルメディア企業に広げていきたいという。

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。