Googleは、大規模言語モデル「Gemma」を提供開始した。「Gemini」と同じ研究と技術に基づく軽量のオープンモデルファミリーだ。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Googleは2024年2月21日(米国時間)、新世代の大規模言語モデル(LLM)「Gemma」を提供開始した。Googleの生成AI(人工知能)「Gemini」と同じ研究、技術に基づいた軽量のオープンモデルファミリーだ。
20億パラメーターの「Gemma 2B」と70億パラメーターの「Gemma 7B」がリリースされており、それぞれ事前トレーニング済みモデルとインストラクションチューニング済みモデルが用意されている。
これらのモデルはノートPC、ワークステーション、「Google Cloud」で実行できる。Google Cloudでは、「Vertex AI」と「Google Kubernetes Engine」(GKE)を使って簡単にデプロイできる。Gemma 2Bの対象プラットフォームはモバイルデバイスとノートPC、Gemma 7BはデスクトップPCと小規模サーバだ。
Gemmaの利用規約では、規模の大小を問わず全ての組織に、責任ある商用利用と配布を認めている。
Googleが公開した技術レポートによると、Gemmaはオープンモデルの中でクラス最高のパフォーマンスを発揮するという。安全で責任ある出力のためのGoogleの厳格な基準を順守しながら、主要ベンチマークでより大型のモデルを上回る成績を収めているとした。
Gemmaは、GoogleのAI原則に基づいて設計されている。Googleは事前トレーニング済みモデルでは、安全性と信頼性を高めるため、自動化技術を用いてトレーニングデータセットから特定の個人情報などの機密データを除外した。広範なファインチューニングとRLHF(人間のフィードバックを用いた強化学習)により、インストラクションチューニング済みモデルを責任ある行動と整合させた。
GoogleはGemmaとともに、新しい「Responsible Generative AI Toolkit」を開発者や研究者向けにリリースした。このキットは、安全で責任あるAIアプリケーションの構築を支援するガイダンスやツールを提供する。
Gemmaモデルは、要約や検索拡張生成(RAG)のような特定のアプリケーションのニーズに合わせて、独自のデータでファインチューニングできる。以下のようなさまざまなツールやシステムをサポートしている。
マルチフレームワークのKeras 3.0、ネイティブPyTorch、JAX、Hugging Face Transformerにわたる推論とファインチューニングのレファレンス実装により、お気に入りのフレームワークを適用できる。
GoogleはNVIDIAとの提携に基づき、データセンターからクラウド、ローカルのRTX AI PCに至るまで、GemmaをNVIDIA GPUに最適化し、業界をリードするパフォーマンスとともに、最先端技術との統合を実現している。
Vertex AIが提供する幅広いMLOpsツールセットは、さまざまなチューニングオプションと、組み込みの推論最適化によるワンクリックデプロイ機能を備える。
Copyright © ITmedia, Inc. All Rights Reserved.