リコー、日本語特化オンプレ向け非推論モデルを開発 Gemma 3 27Bベースで何を足し引きしたのか?PRIMERGYにDifyと同梱されて提供

リコーがGemma 3 27Bをベースに、オンプレミスでの導入に特化した日本語用LLMを開発した。OpenAIのgpt-oss-20bなどと同等の性能だという。何を足し、何を引いたのか?

» 2025年12月19日 08時00分 公開
[@IT]

 リコーは2025年12月8日、Googleのオープンモデル「Gemma 3 27B」をベースにした日本語LLM(大規模言語モデル)を開発し、オンプレミス導入向けに提供開始した。同モデルは、エフサステクノロジーズが提供する対話型生成AI(人工知能)基盤「Private AI Platform on PRIMERGY(Very Smallモデル)」に搭載され、リコージャパンから提供される。

Gemma 3 27Bを日本語用に最適化した非推論モデル どう開発したのか?

 新LLMは、リコー独自のモデルマージ技術を用いて「Gemma 3 27B」を日本語・ビジネス用途向けに最適化したもの。約1万5000件のインストラクションチューニングデータで追加学習したInstructモデルから「Chat Vector」(指示追従能力を持つモデルからベースモデルのウェイトを差し引き、指示追従能力のみを抽出したベクトル)を抽出し、Gemma 3 27Bに対して独自技術を用いてマージしている。これにより、ベースモデルから大幅に性能を向上させたという。

 リコーは、同規模のパラメーター数を持つLLMとのベンチマーク評価(「ELYZA-tasks-100」および「Japanese MT-Bench」)において、OpenAIのオープンウェイトモデル「gpt-oss-20b」をはじめとする最先端の高性能モデルと同等のスコアを確認したとしている。

 同モデルは、学習済み知識から直接回答を生成する思考プロセスを持つ「非推論モデル」だ。推論ステップを省略することで、明確な指示に対し、迅速な回答を生成できるという。

 「ユーザー体験を重視した非推論モデルならではの初期応答性(TTFT:Time to First Token)を実現しつつ、高い日本語の執筆能力を兼ね備えている」(リコー)

コンパクトな270億パラメーターでオンプレミス運用を想定

 パラメーター数は270億と比較的コンパクトで、PCサーバ上でも実行環境を構築できる。これにより、データを外部クラウドに出せない環境でも、比較的低コストでプライベートLLMを導入できるという。

 LLMの構築・運用に要する電力消費と環境負荷が課題となる中、同社は「コンパクトかつ高性能」という設計が省エネルギーと環境負荷低減にも寄与するとしている。

 リコーの新LLMは個別提供に加え、2025年12月下旬からエフサステクノロジーズのオンプレミス向け基盤「Private AI Platform on PRIMERGY(Very Smallモデル)」に量子化モデルとして搭載される。

リコーの新LLMとPrivate AI Platform on PRIMERGY(Very Smallモデル)の使用イメージ(提供:リコー

 これにはノーコードの生成AIアプリ開発ツール「Dify」もプリインストールされ、リコージャパンがLLM動作環境を構築した状態でユーザーに提供する。ユーザー企業は、自社の業務に合わせたチャットbotや要約ツールなどの生成AIアプリケーションをノーコードで容易に構築可能になる。

 今後リコーは、論理的推論を重視した推論性能の強化や、特定業種向けモデルの開発を進める方針だ。同社が強みとするマルチモーダル技術と組み合わせることで、LLMラインアップのさらなる拡充を図る。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

スポンサーからのお知らせPR

注目のテーマ

人に頼れない今こそ、本音で語るセキュリティ「モダナイズ」
4AI by @IT - AIを作り、動かし、守り、生かす
Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。