CarperAI、初の“指示チューニング”型オープンソース大規模言語モデルの開発計画を発表:人間のフィードバックからの強化学習(RLHF)でトレーニング
オープンソースAI研究者チーム「CarperAI」は、大規模言語モデル(LLM)のトレーニングのエキスパートであるEleutherAIとMultiおよびラベリングとヒューマンアノテーションのエキスパートであるScale、Humanloop、Hugging Faceと共同で、人間の指示に従うように明示的にトレーニングされたLLMの公開に取り組むと発表した。
オープンソースのAI研究に携わるボランティアの研究者、エンジニア、開発者で構成された分散型コミュニティー「EleutherAI」からスピンアウトした研究者チーム「CarperAI」は2022年10月19日(米国時間)、大規模言語モデル(LLM)のトレーニングにおけるエキスパートであるEleutherAIとMultiおよびラベリングとヒューマンアノテーションのエキスパートであるScale、Humanloop、Hugging Faceと共同で、人間の指示に従うように明示的にトレーニングされたLLMの公開に取り組むと発表した。
このオープンソースLLMは、人間のフィードバックからの強化学習(RLHF:Reinforcement Learning from Human Feedback)によってトレーニングされる。これは、LLMの安全性と使いやすさを高める手法だ。CarperAIは、「LLMをオープンソースとして公開することは、学術関係者、独立研究者、スタートアップ(新興企業)が科学に取り組み、最先端のモデルをベースに活動を進めることができるようにする上で、極めて重要だ」と述べている。
CarperAIは、「Stable Diffusion」が画像生成を民主化したように、LLM、そしてLLMの「指示チューニング」(instruction-tuning)を民主化することを目指している。
業界リーダーのOpenAIは2021年に「InstructGPT-3」モデルにより、指示に従うようにLLMをトレーニングする手法を開拓した。だが、こうしたモデルは、APIの背後にロックされているか、あるいは公開されていないために、ほとんどの学術関係者、ホビイスト、小規模企業にとって、その価値は限定的だと、CarperAIは指摘している。
CarperAIは、これまでのLLMの特徴と課題を次のように説明している。
AIのフロンティアを拡大したLLM
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- Google Cloud、BigQueryの非構造化データサポートや「Vertex AI Vision」を発表
Google CloudはGoogle Cloud Next '22で、「BigLake」のデータ形式サポートを強化し、「BigQuery」では非構造化データに対応、「Vertex AI」では動画を使った機械学習アプリケーション開発を効率化する「Vertex AI Vision」を発表した。 - テキストから「3D画像」生成、Googleなどが開発したAI「DreamFusion」の仕組みとは
Google Researchとカリフォルニア大学バークレー校の研究チームは、テキストから3次元(3D)オブジェクトを生成するAI「DreamFusion」を開発した。2次元(2D)拡散モデルを用いる。 - 無料で誰でも簡単に、テキストから画像を生成できる「Craiyon(旧名:DALL・E mini)」を使ってみよう
テキストプロンプト(文章)から画像を生成するAIサービス「craiyon.com」。その概要と使い方、サンプル実行例のギャラリーに加えて、「どういった文章を入力すればよいか?」や「生成した画像は使ってもいいのか?」といった気になる点も紹介する。