NTTは国産LLM「tsuzumi 2」の提供を開始した。超大規模モデルに匹敵する日本語性能と、1GPUでも動作可能な軽量化を両立させたという。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
NTTは2025年10月20日、高性能な日本語処理能力を持つ国産LLM(大規模言語モデル)「tsuzumi 2」の提供を開始した。
tsuzumi 2は、2023年に同社が発表したLLM「tsuzumi」の次世代モデルだ。tsuzumi 2では、企業や自治体が保有する複雑なドキュメントに対する理解力や専門知識への対応力を向上させているという。
NTTは、tsuzumi 2の特徴について次のように説明している。
30B(300億)パラメーターのtsuzumi 2の日本語性能は、「gpt-oss-120b」(1200億パラメーター)や「Llama 3.3 70B」(700億パラメーター)といった超大規模モデルに匹敵する性能を実現しているという。
NTTが実施した公開ベンチマークを用いた評価によると、ビジネス領域で重視される「知識」「解析」「指示遂行」「安全性」の4項目において、超大規模モデルに匹敵するスコアを記録したという。
企業でのユースケースとして注目されているRAG(検索拡張生成)やファインチューニングによる企業、業界特化型モデルの開発効率が向上している。tsuzumi 2は、金融、医療、公共分野の知識をあらかじめ強化しており、これらの分野で高い性能を発揮するという。
NTT社内の財務システムに関する問い合わせ対応業務にRAGを活用した評価では、tsuzumi 2は「GPT-5」など大規模モデルと同等の性能を確認したという。
tsuzumi 2は40GB以下のメモリを保有したGPU1基での動作を想定して開発されている。これにより、API利用料の増大を懸念する高頻度利用のユースケースや、機微情報を扱うためのオンプレミス環境構築において、運用コストを抑えることができるという。
LLMの開発を巡っては、ニューヨーク・タイムズが同社の記事を無断で学習データに利用し著作権を侵害したとしてOpenAIやMicrosoftを提訴するなど、モデル開発過程の信頼性が厳しく問われつつあり、国内でも議論が活発化している。
NTTは「こうした問題を指摘されたモデルを使い続けることは利用者側も責任を問われかねない」と指摘。そこで、tsuzumi 2は他社のモデルをベースとせず、NTTが一からフルスクラッチ開発しているという。
「学習データを管理することにより、データの権利、品質、バイアスの制御が可能となる。モデルの信頼性を確保する上で極めて重要だ」と、NTTは述べている。
学習データの偏りがバイアスをもたらし、LLMの出力結果に悪影響を及ぼすリスクは、AI利用企業のコンプライアンスリスクにも直結する。生成AIの社会実装が進む今、モデルの性能面だけではなく、信頼性やリスク管理の観点もモデルを選定する上で重要な要素となるだろう。
Copyright © ITmedia, Inc. All Rights Reserved.