Metaは画像や動画内のあらゆる物体を識別できる「Segment Anything Model」(SAM)とデータセットの「Segment Anything 1-Billion mask dataset(SA-1B)」を公開した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Metaは2023年4月5日(米国時間)、画像や動画内の物体を識別できる「Segment Anything Model」(SAM)とデータセットの「Segment Anything 1-Billion mask dataset(SA-1B)」を公開した。
SAMは、オブジェクトとは何かという一般的な概念を学習しており、写真や動画に含まれるあらゆるオブジェクトのマスクを生成できるという。これには、学習されていないオブジェクトも含まれる。
これにより、幅広いユースケースをカバーする汎用(はんよう)性があり、水中の写真や顕微鏡で見た細胞の写真など新しい写真(ドメイン)に対して、トレーニングを必要とせず、すぐに使用できるとしている。
SAMはセグメンテーションの民主化を目的として公開されており、Apache-2.0ライセンスのもと、SA-1Bは研究目的で利用できる。
Copyright © ITmedia, Inc. All Rights Reserved.