IBMは、大規模言語モデルファミリーの最新版「Granite 3.2」の一連の新モデルを発表した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
IBMは2025年2月26日(米国時間)、大規模言語モデル(LLM)ファミリーの最新版「Granite 3.2」の一連の新モデルを発表した。
Graniteファミリーのモデルは、小型で効率的、実用的なエンタープライズAI(人工知能)の提供を目的としている。
Granite 3.2モデルは全て、Hugging Faceで寛容なApache 2.0ライセンスで提供されている。一部のモデルはIBM watsonx.ai、Ollama、Replicate、LM Studioでも2月26日から利用可能になっており、Red Hat Enterprise Linux AI 1.5でも間もなく利用可能になる。
Granite 3.2モデルの概要は以下の通り。
文書理解に重点を置いて開発された新しいビジョン言語モデル(VLM)。DocVQA、ChartQA、AI2D、OCRBench1といった重要なエンタープライズベンチマークにおいて、「Llama 3.2 11B」や「Pixtral 12B」といった非常に大規模なモデルに匹敵するか、それらを上回る性能を示している。IBMは堅牢(けんろう)なトレーニングデータに加え、独自のオープンソースツールキット「Docling」を使用して、8500万件のPDFを処理し、2600万件の合成質問、回答ペアを生成して、ドキュメントを多用する複雑なワークフローを処理するVLMの能力を強化した。
Granite 3.2 8B InstructとGranite 3.2 2B Instructは、一般的な性能を犠牲にすることなく、複雑な指示を実行する能力を大幅に向上させる実験的な思考の連鎖推論機能を提供する。推論プロセスはオン/オフの切り替えが可能で、コンピューティングリソースを効率的に使用できる。
IBMの推論スケーリング技術と組み合わせ、Granite 3.2 8B Instructは拡張思考プロセスによって、「GPT-4o」「Claude 3.5 Sonnet」など、はるかに大きなモデルに匹敵するか、それらを上回る推論性能を発揮できる。
Granite 3.1 Guardianモデルの性能を維持しながら、サイズが30%縮小している。性能の低下を最小限に抑えながら、効率性を向上させている。また、安全モニタリングにおける曖昧さを認識し、よりきめ細かなリスク評価を提供する「verbalized confidence」(言語化された信頼性)と呼ばれる新機能も導入されている。
TTM(TinyTimeMixers)モデルの予測機能が拡張され、従来モデルでサポートされていた1分ごと、1時間ごとの予測タスクに加え、日次、週次の予測が可能になっている。最大2年先までの長期予測に対応しており、金融、経済トレンド、サプライチェーン需要予測、小売業における季節的在庫計画などの長期的なトレンド分析のための強力なツールとなる。
「AI時代では今後、効率性、統合性、実世界へのインパクトが重要になる。企業はコンピュート費用をかけ過ぎずに、強力な成果を達成できるようになる」と、IBM AI Researchのバイスプレジデントを務めるスリラム・ラガバン氏は述べている。「IBMの最新のGranite開発は、オープンソリューションに重点を置いており、現代の企業にとってAIをより利用しやすく、費用対効果が高く、価値あるものにするための新たな一歩だ」
Copyright © ITmedia, Inc. All Rights Reserved.