Googleは、大規模言語モデル「Gemini 1.5 Pro」とGeminiファミリーの軽量モデル「Gemini 1.5 Flash」それぞれの新機能と最新オープンモデル「Gemma 2」を提供開始したと発表した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Googleは2024年6月27日(米国時間)、大規模言語モデル(LLM)「Gemini 1.5 Pro」とGeminiファミリーの軽量モデル「Gemini 1.5 Flash」それぞれの新機能を提供開始したことと、「Google AI Studio」で最新オープンモデル「Gemma 2」が利用可能になったことなどを発表した。
Gemini 1.5 Proは、Google初のネイティブマルチモーダルモデルだったGemini 1.0をアップデートしたモデルとして2024年2月に公開された。この時点でのコンテキストウィンドウは100万トークンだった。
Googleは2024年5月、Gemini 1.5 Proの200万トークンのコンテキストウィンドウを発表し、同年6月27日からこのコンテキストウィンドウへのアクセスを全ての開発者に開放した。
コンテキストウィンドウが大きくなると、入力コストも膨らむ可能性がある。そこでGoogleは、複数のプロンプトで同じトークンを使用するタスクのコストを開発者が抑えられるように、Gemini 1.5 ProとGemini 1.5 Flashの両方のGemini APIでコンテキストキャッシュ機能を提供開始した。この機能も2024年5月に発表された。
Gemini APIは、Google AI StudioとGoogle Cloudの「Vertex AI」で利用できる。
LLMは従来、数学やデータの推論問題で苦労してきた。こうした問題向けの推論が可能なコードを生成、実行することは、精度の向上に役立つ。そこでGoogleは、Gemini 1.5 ProとGemini 1.5 Flashの両方でコード実行を可能にした。
コード実行機能は、有効化すると、モデルによって動的に利用される。望ましい最終出力に到達するまで、モデルはPythonコードを生成、実行し、その結果から反復的に学習する。実行サンドボックスはインターネットに接続されておらず、幾つかの数値ライブラリが標準装備されており、開発者はモデルからの出力トークンに基づいて課金される。
「Gemma」は、Geminiモデルの開発に利用された研究と技術に基づいて構築されたオープンモデルファミリーだ。2024年5月に発表された最新モデルであるGemma 2は、Google AI Studioで提供開始された。Gemmaモデルをテストするには、開発環境を設定する必要があるが、Google AI Studioを使用することで、開発環境を設定せずに素早くテストできる。
2024年5月に発表された小型GeminiモデルであるGemini 1.5 Flashは、モデルの応答速度が最も重要な、Gemini 1.5 Proより狭い範囲のタスクや高頻度のタスクに最適化されている。要約、チャット、画像や動画のキャプション、長い文書や表からのデータ抽出などに優れている。
また、Gemini 1.5 Flashのチューニング機能を2024年6月27日から開発者に提供開始したことも発表した。同年7月中旬までに全ての開発者がGemini APIおよびGoogle AI Studioから、この機能にアクセスできるようになるという。
Copyright © ITmedia, Inc. All Rights Reserved.