Microsoft、小規模言語モデル「Phi-3」公開 大規模言語モデルと異なる利用シーンを想定「小」規模言語モデルの持つ可能性

Microsoftは、自社開発の小規模言語モデル(SLM)ファミリー、「Phi-3」を発表した。シリーズ最小のパラメーター数の「Phi-3-mini」を公開し、Microsoft Azure AI Studio、Hugging Face、Ollamaで利用可能になった。

» 2024年05月13日 08時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 Microsoftは4月23日(米国時間)、自社開発の小規模言語モデル(SLM)ファミリー、「Phi-3」を発表した。また、同日からPhi-3シリーズ最小となる38億個のパラメーターを持つ「Phi-3-mini」が「Microsoft Azure AI Studio」「Hugging Face」「Ollama」で利用可能になった。

Phi-3-miniの特徴

 Phi-3-miniは4Kおよび128Kトークンの2種類のコンテキスト長で利用でき、128Kトークンまでのコンテキストウィンドウをサポートするモデルだ。このモデルはインストラクションチューニングされており、人々の通常のコミュニケーション方法を反映した、さまざまなタイプの指示に従うように訓練されている。

 Azure AI上でPhi-3-miniを使用することで、モデルのdeploy-eval-finetuneツールチェーン(モデルのデプロイ、評価、ファインチューニング)ができるようになる。また、Ollamaでも利用可能で、開発者のラップトップでローカルでも実行できる。

  Phi-3-miniは、ONNX(Open Neural Network Exchange)ランタイムと「Windows DirectML」を通じ、GPU、CPU、モバイルハードウェアにクロスプラットフォームで対応している。また、どこにでも展開できる標準APIインタフェースを備えたNVIDIA NIMマイクロサービスとしても利用できる。NVIDIA GPU向けの最適化も施されている。

 加えて、近日中に「Phi-3-small」(70億パラメーター)と「Phi-3-medium」(140億パラメーター)などのPhi-3ファミリーのモデルが追加される。この2つのモデルはAzure AIモデルカタログとその他のモデルガーデン(機械学習モデルのリポジトリやコレクション)での公開が予定されている。

Phi-3のパフォーマンス

 Microsoftによると、Phi-3は主要ベンチマークにおいて、同サイズおよびそれ以上のサイズの言語モデルよりも優れたパフォーマンスを示しているという(下図参照)。また、Phi-3-miniは、その2倍のサイズを持つモデルよりも優れており、Phi-3-smallおよびPhi-3-mediumは、GPT-3.5Tなどのはるかにサイズが大きいモデルを上回るとしている。

サイズが小さいほど事実を保持する容量が小さくなるため、Phi-3は事実知識ベンチマーク(TriviaQAなど)ではあまり良い結果を示さない(提供:Microsoft)
Phi-3の品質を表す図。Massive Multitask Language Understanding(MMLU)ベンチマークでパフォーマンスを計測し、同様のサイズの他社モデルと比較している(出典:Microsoft)

モデル設計とトレーニングデータ

 Phi-3は、MicrosoftのAI開発標準「Microsoft Responsible AI Standard」に基づいて開発された。これは、アカウンタビリティ、透明性、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性の6つの原則に基づいている。Phi-3は、安全性の測定と評価、レッドチーム活動、機密利用のレビューを含む厳格なプロセスを経て開発され、Microsoftの基準とベストプラクティスに沿って開発、テスト、展開されている。

 また、Phi-3はトレーニングに高品質のデータを使用している。人間のフィードバックからの強化学習(RLHF)、数十の被害カテゴリーにわたる自動テストと評価、手動のレッドチーム活動など、包括的な安全性のポストトレーニングが施されている。

小規模言語モデルが活用できるケース

 Microsoftは「生成AIツール『Microsoft Copilot』を公開し、顧客がAzure AIを使用して生成AIでビジネスを変革できるようにした経験から、異なるタスクに対して品質とコストのバランスを考慮したさまざまなサイズのモデルの需要が増していることを把握した」と述べている。

 Phi-3のような小規模言語モデルを採用するのに最適なケースとして、Microsoftは以下を挙げている。

  • リソースが制約されている環境、特にデバイス内およびオフライン推論のシナリオ
  • レイテンシに制約があり、高速な応答時間が重要なシナリオ
  • コストに制約のあるユースケース、特に単純なタスクの場合

 Phi-3は小型であるため、演算量に制限のある推論環境でも使用できる。特にPhi-3-miniは、ONNXランタイムで最適化されることで、デバイス上で使用できるようになる。また、Phi-3モデルのサイズが小さいため、より容易かつ手頃な価格でファインチューニングやカスタマイズができる。

 Microsoftのソナリ・ヤダヴ氏(生成AI担当主任プロダクトマネージャー)は、「今後見られるようになるのは、大規模から小規模へのシフトではなく、モデルの単一カテゴリーからモデルのポートフォリオへのシフトだ。顧客は自分のシナリオに最適なモデルを決定できるようになるだろう」と述べている。

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

4AI by @IT - AIを作り、動かし、守り、生かす
Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。