Stability AI、無料で利用できる「Stable Diffusion 3.5 Large」に3種類の「ControlNet」を追加 何ができる?:追加の入力画像でStable Diffusionを制御
Stability AIは、画像生成モデル「Stable Diffusion 3.5 Large」の3種類の新しい「ControlNet」を提供開始した。
Stability AIは2024年11月26日(米国時間)、画像生成モデル「Stable Diffusion 3.5 Large」の3種類の新しい「ControlNet」を提供開始した。内訳は「Blur」「Canny」「Depth」だ。
ControlNetは、追加の入力画像でStable Diffusion 3.5 Largeを条件付け、制御するためのモデルの一種。3.5 Largeを使って正確かつ簡単に画像を生成するために必要なツールと位置付けられる。さまざまな入力に対応しており、インテリアデザインからキャラクター制作まで、幅広い用途に最適だと、Stability AIは述べている。
追加された3種類のControlNetで何ができる?
新しい3種類のControlNetはStability AI Community Licenseに基づいて、商用(年間売上高100万ドルまで)、非商用にかかわらず、無料で使用できる。年間売上高が100万ドルを超える企業は、エンタープライズライセンスを契約する必要がある。
これらのControlNetは、重みについてはHugging Faceから、コードについてはGitHubからダウンロードできる。Comfy UIでもサポートされている。
Blur、Canny、Depthの概要は以下の通り。
Blur
8Kや16Kなど、高解像度で極めて忠実度の高い画像へのアップスケーリングを実現する。低解像度の画像を大きく精細なビジュアルにタイリングするのに最適だ。
Canny
Cannyエッジマップを利用して、入力画像から線画を抽出し、それを基に画像を生成する。特にイラストに便利だが、あらゆるスタイルに適応できる。
Depth
DepthFMによって生成された深度マップを使用して、画像生成をガイドする。建築レンダリングや3Dアセットのテクスチャリングなど、画像の構図を厳密に制御する必要がある場合に最適だ。
約150人が参加した同種の制御に関するELO比較調査(※)で、Stable Diffusion 3.5 LargeのControlNetが、類似モデルの中でユーザーから最も高い評価を得た。
(※)チェスなどで使われるELOレーティングシステムを応用しLLM間の相対的な実力を数値化したもの
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- Stability AI、「Stable Diffusion 3」の先行プレビュー版を発表
Stability AIは、同社の画像生成モデル「Stable Diffusion」の最新版となる「Stable Diffusion 3」を発表した。 - 1枚の物体画像から3D動画や3Dメッシュを生成する「Stable Video 3D」発表 Stability AI
Stability AIは、1枚の物体画像から3D動画や3Dメッシュを生成する「Stable Video 3D」を発表した。 - Stability AI、オフラインで使用できるコーディング生成AI「Stable Code 3B」を発表
Stability AIは、コーディング用生成AI「Stable Code」の最初のメジャーリリースとなる「Stable Code 3B」を発表した。