リコー、日本語特化オンプレ向け非推論モデルを開発 Gemma 3 27Bベースで何を足し引きしたのか?:PRIMERGYにDifyと同梱されて提供
リコーがGemma 3 27Bをベースに、オンプレミスでの導入に特化した日本語用LLMを開発した。OpenAIのgpt-oss-20bなどと同等の性能だという。何を足し、何を引いたのか?
リコーは2025年12月8日、Googleのオープンモデル「Gemma 3 27B」をベースにした日本語LLM(大規模言語モデル)を開発し、オンプレミス導入向けに提供開始した。同モデルは、エフサステクノロジーズが提供する対話型生成AI(人工知能)基盤「Private AI Platform on PRIMERGY(Very Smallモデル)」に搭載され、リコージャパンから提供される。
Gemma 3 27Bを日本語用に最適化した非推論モデル どう開発したのか?
新LLMは、リコー独自のモデルマージ技術を用いて「Gemma 3 27B」を日本語・ビジネス用途向けに最適化したもの。約1万5000件のインストラクションチューニングデータで追加学習したInstructモデルから「Chat Vector」(指示追従能力を持つモデルからベースモデルのウェイトを差し引き、指示追従能力のみを抽出したベクトル)を抽出し、Gemma 3 27Bに対して独自技術を用いてマージしている。これにより、ベースモデルから大幅に性能を向上させたという。
リコーは、同規模のパラメーター数を持つLLMとのベンチマーク評価(「ELYZA-tasks-100」および「Japanese MT-Bench」)において、OpenAIのオープンウェイトモデル「gpt-oss-20b」をはじめとする最先端の高性能モデルと同等のスコアを確認したとしている。
同モデルは、学習済み知識から直接回答を生成する思考プロセスを持つ「非推論モデル」だ。推論ステップを省略することで、明確な指示に対し、迅速な回答を生成できるという。
「ユーザー体験を重視した非推論モデルならではの初期応答性(TTFT:Time to First Token)を実現しつつ、高い日本語の執筆能力を兼ね備えている」(リコー)
コンパクトな270億パラメーターでオンプレミス運用を想定
パラメーター数は270億と比較的コンパクトで、PCサーバ上でも実行環境を構築できる。これにより、データを外部クラウドに出せない環境でも、比較的低コストでプライベートLLMを導入できるという。
LLMの構築・運用に要する電力消費と環境負荷が課題となる中、同社は「コンパクトかつ高性能」という設計が省エネルギーと環境負荷低減にも寄与するとしている。
リコーの新LLMは個別提供に加え、2025年12月下旬からエフサステクノロジーズのオンプレミス向け基盤「Private AI Platform on PRIMERGY(Very Smallモデル)」に量子化モデルとして搭載される。
これにはノーコードの生成AIアプリ開発ツール「Dify」もプリインストールされ、リコージャパンがLLM動作環境を構築した状態でユーザーに提供する。ユーザー企業は、自社の業務に合わせたチャットbotや要約ツールなどの生成AIアプリケーションをノーコードで容易に構築可能になる。
今後リコーは、論理的推論を重視した推論性能の強化や、特定業種向けモデルの開発を進める方針だ。同社が強みとするマルチモーダル技術と組み合わせることで、LLMラインアップのさらなる拡充を図る。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
国産LLM「tsuzumi 2」提供開始 他社モデルをベースとせず、フルスクラッチで一から開発する理由
NTTは国産LLM「tsuzumi 2」の提供を開始した。超大規模モデルに匹敵する日本語性能と、1GPUでも動作可能な軽量化を両立させたという。
B200を384基まで利用可能 さくらインターネットのマネージドGPUクラスタサービス「さくらONE」とは
さくらインターネットが、GPUクラスタをマネージドサービスとして使える「さくらONE」というサービスを発表した。ユーザー組織は、構築や運用に手間をかけることなく大規模なクラスタを利用できる。本記事では、利用可能な構成を含めて新サービスを紹介する。
「国内で完結した生成AIの活用を可能に」 Preferred Networks、さくらインターネット、NICTが基本合意を締結
日本独自の文化や制度が考慮された「安全で高性能な国産LLM」開発とそのサービス化を行うという。
