rinnaは13億パラメーターを持つ日本語に特化したGPT言語モデルをMITライセンスで公開した。性能は約14パープレキシティー。一般的な日本語の特徴を持つ文章を自動生成できるという。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
AIキャラクター開発企業のrinnaは2022年1月26日、13億パラメーターを持つ日本語に特化したGPT(Generative Pre-trained Transformer)言語モデルを公開した。MITライセンスで商用利用が可能。公開先は自然言語処理モデルライブラリHugging Face。
GPTは、人間が使う会話や文章に出てくる単語の確率の組み合わせから次の単語の確率を計算する言語モデルだ。
例えば、「確率(吾輩は猫である)=確率(吾輩)×確率(は|吾輩)×確率(猫|吾輩,は)×確率(で|吾輩,は,猫)×確率(ある|吾輩,は,猫,で)」のような方法で計算する。この性質を用いて、「吾輩は」という単語を入力したとき、次の単語として確率が高い「猫」を予測できる。
Copyright © ITmedia, Inc. All Rights Reserved.