13億パラメーターを持つGPT言語モデルをrinnaが公開、日本語に特化商用利用も可能

rinnaは13億パラメーターを持つ日本語に特化したGPT言語モデルをMITライセンスで公開した。性能は約14パープレキシティー。一般的な日本語の特徴を持つ文章を自動生成できるという。

» 2022年01月27日 08時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 AIキャラクター開発企業のrinnaは2022年1月26日、13億パラメーターを持つ日本語に特化したGPT(Generative Pre-trained Transformer)言語モデルを公開した。MITライセンスで商用利用が可能。公開先は自然言語処理モデルライブラリHugging Face。

Hugging Faceに公開されたrinnaのGPT言語モデル(Hugging Face

 GPTは、人間が使う会話や文章に出てくる単語の確率の組み合わせから次の単語の確率を計算する言語モデルだ。

 例えば、「確率(吾輩は猫である)=確率(吾輩)×確率(は|吾輩)×確率(猫|吾輩,は)×確率(で|吾輩,は,猫)×確率(ある|吾輩,は,猫,で)」のような方法で計算する。この性質を用いて、「吾輩は」という単語を入力したとき、次の単語として確率が高い「猫」を予測できる。

性能は14パープレキシティー

Copyright © ITmedia, Inc. All Rights Reserved.

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。