NVIDIA、日本語特化型のフルスクラッチ大言語モデルを提供開始1000億パラメーターのLLMを簡単に利用可能に

NVIDIAは、ストックマークが開発した1000億パラメーターの日本語大規模言語モデルを「NVIDIA NIMマイクロサービス」として提供開始した。

» 2025年10月01日 08時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 NVIDIAは2025年9月25日、1000億パラメーターを持つ日本語大規模言語モデル(LLM)「Stockmark-2-100B-Instruct」(以下、Stockmark-2)の提供を開始した。AI(人工知能)運用に最適化されたマイクロサービス群「NVIDIA NIMマイクロサービス」で利用できる。

画像 リリース

日本のビジネス環境を基にフルスクラッチ開発

 一般的に1000億パラメータークラスのLLMは、推論やリーズニング、ファインチューンに高性能なGPU環境が必要となるため導入コストがかかり、ユーザー数が増えるとレスポンスの遅延やシステム負荷の問題も発生する。また、AIモデルの環境構築や最適化、API化には高度な専門知識が必要になる。

 NVIDIAはこうした課題を解決し、開発者が簡単に生成AIモデルを構築できるようにするため、LLMをマイクロサービスとして提供する。マイクロサービスのため、クラウド、データセンター、GPU対応ワークステーションなど、場所を問わず利用できるため、同社は「開発したAIを市場投入するまでの時間を短縮する」としている。

 Stockmark-2の開発元であるストックマークは、多くの日本企業への導入実績を持ち、産業技術総合研究所や東北大学、理化学研究所などとの産学連携による自然言語処理基盤の技術開発も推進している。Stockmark-2はフルスクラッチで開発されており、膨大な日本語のビジネス文書や会話文をトレーニングデータとして活用している。NVIDIAは「単なる言語モデルではなく、厳密性と専門性が求められるビジネス領域で高精度な性能を発揮し、日本のビジネス環境に最適化された独自のAI基盤モデルを構築できた」としている。

このニュースのポイント

Q: NVIDIAが提供開始したものは?

A: ストックマークが開発した日本語特化の1000億パラメーターLLM「Stockmark-2-100B-Instruct」を「NVIDIA NIMマイクロサービス」として提供。

Q: マイクロサービス提供の狙いは?

A: 高性能GPUや専門知識が必要なLLM導入の課題を解消し、クラウド、データセンター、GPUワークステーションなど場所を問わず容易に利用可能にすることで、AIの市場投入を加速させる。

Q: モデル開発の特徴は?

A: 日本語のビジネス文書や会話文を大規模に学習したフルスクラッチのLLMで、厳密性、専門性が求められる日本のビジネス環境に最適化されている。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

スポンサーからのお知らせPR

注目のテーマ

4AI by @IT - AIを作り、動かし、守り、生かす
Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。