Microsoftは、写真や動画が改変されている可能性をパーセントで表示するディープフェイク検出技術「Microsoft Video Authenticator」を発表した。コンテンツが改変されていないことを保証する技術も併せて公開した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Microsoftは2020年9月1日(米国時間)、ディープフェイク検出技術「Microsoft Video Authenticator」を発表した。
ディープフェイク(「合成メディア」とも呼ばれる)は、改変操作された写真、動画、音声ファイルのうち、特に人工知能(AI)を使って判明しにくいように巧妙に細工されたものを指す用語だ。写っている人物が本当は言っていないことを言わせたり、本当はその場所にはいないのにもかかわらず、いるように見せかけたりする。
ディープフェイクはニュース記事などのメディアにも出現しており、社会問題となっている。米国の大統領選挙が近づく中、今回の検出技術は、ユーザーがディープフェイクを見分けるための有益なツールになるとMicrosoftは述べている。
Video Authenticatorは写真や動画を分析し、コンテンツが人工的に操作されている可能性をパーセントで示す。これは信頼度スコアと捉えることもできる。動画の場合、再生中のフレームごとにパーセントを表示できる。人間の目では見つけにくいディープフェイク特有の「継ぎ目」や、微妙な色あせ、グレースケールの要素を検出することで、こうした機能を提供する。
Video Authenticatorを開発したのはMicrosoft Researchだ。MicrosoftのResponsible AI(責任あるAI)チームとMicrosoft AI, Ethics and Effects in Engineering and Research(AETHER)Committeeの協力を得ている。開発に当たっては、「Face Forensic++」の公開データセットを使用し、「DeepFake Detection Challenge Dataset」を使ってテストを進めた。Face Forensic++とDeepFake Detection Challenge Datasetは、先進的なモデルに基づいて作成されたディープフェイク検出技術のトレーニングとテストのためのデータセットだ。
ディープフェイクのような合成メディアを生成するAIは、継続的な学習が可能だ。そのため、合成メディアの生成方法が巧妙化し続けるとMicrosoftは予想している。「AIによる検出方法には、いずれも一定の誤認率があるため、われわれは、検出方法をすり抜けるディープフェイクがあることを理解し、すり抜けたものに対処する準備を整えなければならない」との見解も示している。
Copyright © ITmedia, Inc. All Rights Reserved.