Microsoft、ディープフェイク検出技術「Microsoft Video Authenticator」などを発表:コンテンツが改変されていないことを保証する技術も登場
Microsoftは、写真や動画が改変されている可能性をパーセントで表示するディープフェイク検出技術「Microsoft Video Authenticator」を発表した。コンテンツが改変されていないことを保証する技術も併せて公開した。
Microsoftは2020年9月1日(米国時間)、ディープフェイク検出技術「Microsoft Video Authenticator」を発表した。
ディープフェイク(「合成メディア」とも呼ばれる)は、改変操作された写真、動画、音声ファイルのうち、特に人工知能(AI)を使って判明しにくいように巧妙に細工されたものを指す用語だ。写っている人物が本当は言っていないことを言わせたり、本当はその場所にはいないのにもかかわらず、いるように見せかけたりする。
ディープフェイクはニュース記事などのメディアにも出現しており、社会問題となっている。米国の大統領選挙が近づく中、今回の検出技術は、ユーザーがディープフェイクを見分けるための有益なツールになるとMicrosoftは述べている。
Video Authenticatorは写真や動画を分析し、コンテンツが人工的に操作されている可能性をパーセントで示す。これは信頼度スコアと捉えることもできる。動画の場合、再生中のフレームごとにパーセントを表示できる。人間の目では見つけにくいディープフェイク特有の「継ぎ目」や、微妙な色あせ、グレースケールの要素を検出することで、こうした機能を提供する。
Video Authenticatorを開発したのはMicrosoft Researchだ。MicrosoftのResponsible AI(責任あるAI)チームとMicrosoft AI, Ethics and Effects in Engineering and Research(AETHER)Committeeの協力を得ている。開発に当たっては、「Face Forensic++」の公開データセットを使用し、「DeepFake Detection Challenge Dataset」を使ってテストを進めた。Face Forensic++とDeepFake Detection Challenge Datasetは、先進的なモデルに基づいて作成されたディープフェイク検出技術のトレーニングとテストのためのデータセットだ。
ディープフェイクのような合成メディアを生成するAIは、継続的な学習が可能だ。そのため、合成メディアの生成方法が巧妙化し続けるとMicrosoftは予想している。「AIによる検出方法には、いずれも一定の誤認率があるため、われわれは、検出方法をすり抜けるディープフェイクがあることを理解し、すり抜けたものに対処する準備を整えなければならない」との見解も示している。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 「正しく使用する場合に限り、メリットがある」 AppierのAIサイエンティストが語るAutoMLの未来図とは
AppierのチーフAIサイエンティストを務めるMin Sun氏はAutoMLについて、正しく使用する場合に限ってメリットをもたらすと述べた。機能を正しく理解し、どのように利用すべきかを判断して、その可能性を最大限に活用することが重要だとしている。 - MIT研究チーム、コピー&ペーストでGANモデルを編集できるツールを開発
マサチューセッツ工科大学(MIT)の研究チームが、Generative Adversarial Network(GAN:敵対的生成ネットワーク)モデルの条件を操作できるツールを開発した。 - 若年層ほどデマを信じやすいが、真偽を調べる割合は高い 総務省が新型コロナに関する情報流通調査
総務省は、「新型コロナウイルス感染症に関する情報流通調査」の結果を発表した。放送メディアは利用度と信頼度がともに高く、SNSは利用度と信頼度のいずれも低い。デマやフェイクニュースは、若年層ほど信じやすい傾向にあった。