AWSは、基盤モデルを使用した生成AIアプリケーションの構築、展開を支援する「Amazon Bedrock」サービスの新機能を発表した。新機能には、カスタムモデルインポート、モデル評価、「Guardrails for Amazon Bedrock」があり、使用可能な基盤モデルの選択肢も拡大している。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Amazon Web Services(AWS)は2024年4月23日(米国時間)、基盤モデルを使用した生成AIアプリケーションの構築、展開を支援する「Amazon Bedrock」サービスの新しい機能を発表した。新機能には、カスタムモデルインポート、モデル評価、「Guardrails for Amazon Bedrock」があり、使用可能な基盤モデルの選択肢も拡大している。
Amazon Bedrockは、大手AI企業の高性能な基盤モデルを、生成AIアプリケーションの迅速な構築、展開に必要な機能やエンタープライズグレードのセキュリティを含めて幅広く提供するフルマネージドサービスだ。発表内容の概要は以下の通り。
医療や金融などさまざまな業界で、公開されているAIモデルを自社データを用いて専門領域用途向けにカスタマイズする企業が増えている。
Amazon Bedrockの新しいカスタムモデルインポート機能を利用すれば、企業は自社のカスタムモデルをAmazon Bedrockにインポートして、フルマネージドなAPIとしてアクセスできるようになる。
カスタムモデルのAmazon Bedrockへの追加は、数クリックで簡単にできる。自動での検証プロセスを経ることで、Amazon Bedrockの他の基盤モデルと同様に、自社のカスタムモデルにスムーズにアクセスできる。シームレスな拡張性、アプリケーションに対する強力な安全機構、責任あるAIの原則順守、検索拡張生成(RAG)によるモデルのナレッジベース拡張、複数ステップのタスクを完了するエージェントの簡単な作成、モデルの継続的な改良のためのファインチューニングの実行といったAmazon Bedrockのメリットを、インフラを管理する必要なく利用できる。
AWSはこの新機能により、企業が同じAPIを介してAmazon Bedrockのモデルとカスタムモデルの組み合わせを簡単に選択できるよう支援する。現在、カスタムモデルインポートはプレビュー版として提供されており、広く普及している「Flan-T5」「Llama」「Mistral」の3つのオープンモデルアーキテクチャに対応している。AWSは対応アーキテクチャを拡張していく計画だ。
Amazon Bedrockでは、AIモデルを単独で、または他のモデルと組み合わせて稼働させることができるが、特定の用途に最適なモデルを選択するには、モデルを評価し、正確さと性能のバランスを取る必要がある。
一般提供が開始された新しいモデル評価機能を使えば、Amazon Bedrock上のモデルを迅速に分析、比較でき、モデルの評価にかかる時間が数週間から数時間に短縮される。
この機能では、事前に定義された評価基準(正確さ、堅牢《けんろう》性など)を選択して、自社のデータセットやプロンプトライブラリをアップロードしたり、組み込まれた公開リソースを選択したりすることで、速やかに評価を開始できる。
主観的な基準や微妙な判断が求められるコンテンツについては、人による判断をワークフローに追加し、用途に応じた指標(関連性、スタイル、ブランドボイスなど)に基づいてモデルレスポンスを評価することが可能だ。
設定プロセスが完了すると、Amazon Bedrockは評価を実行してレポートを生成する。企業は重要基準に対するモデルのパフォーマンスを把握し、用途に最適なモデルを迅速に選択できる。
多くのAIモデルでは、あらかじめ組み込んだ制御機構を用いて、望ましくない有害なコンテンツをフィルタリングしている。だが、大多数の企業は、生成AIアプリケーションをさらにカスタマイズすることで、関連性があり、企業ポリシーと合致し、責任あるAIの原則に準拠した応答を返せるようにしたいと考えている。
AWSは一般提供が開始されたGuardrails for Amazon Bedrockについて、「基盤モデルのネイティブ機能に加え、業界をリードする安全機構を提供することで、有害コンテンツを最大85%ブロックすることを可能にする」としている。
またGuardrails for Amazon Bedrockは、Amazon Bedrockの全ての大規模言語モデル(LLM)や顧客がファインチューニングしたモデルと連動する。
この新機能でガードレール(安全機構)を作成するには、アプリケーションのコンテキストで許可されないトピックを、自然言語で定義すればよい。またヘイトスピーチや、人を傷つける言葉、性的表現、プロンプトインジェクション、脅しといったさまざまな領域をフィルタリングするためのしきい値の他、個人情報や機密情報、冒涜表現、特定の禁止用語を削除するためのフィルターを設定することもできる。
AWSは、Amazon Bedrockで「Amazon Titan Text Embeddings V2」「Titan Image Generator」、CohereおよびMetaの最新モデルの提供を開始した。
Amazon Titanは、Amazon Bedrockのみで利用できる基盤モデルファミリーであり、拡充が進められている。RAGでの活用に最適化されたAmazon Titan Text Embeddings V2は、情報検索、質疑応答チャットbot、「おすすめ」のパーソナライズなど、さまざまなタスクに適しており、2024年4月最終週から提供が開始される。
RAGは、基盤モデルがナレッジソースに接続し、そのナレッジソースを参照することで応答を洗練させる一般的なモデルカスタマイズ手法だが、これらの処理では、コンピューティングとストレージに多大な負荷がかかる可能性がある。Amazon Titan Text Embeddings V2は、精度を高めつつ、ストレージとコンピューティングのコストを削減する。
一般提供が開始されたAmazon Titan Image Generatorは、広告、Eコマース、メディア、エンターテインメントといった業界の企業が自然言語プロンプトを使って、スタジオ品質の画像を製作したり、既存画像を低コストで改善、編集できるよう支援する。さらに、製作する全ての画像に目に見えない電子透かしを入れたり、電子透かしの有無をチェックしたりする機能も備えている。
Amazon Bedrockでは「Meta Llama 3」が利用可能になっており、Cohere の「Command R」「Command R+」も近いうちに提供が開始される。
Llama 3は、幅広いユースケースをサポートする、事前トレーニング済みのインストラクションファインチューニングされたLLMだ。特にテキストの要約や分類、センチメント分析、言語翻訳、コード生成に適している。
CohereのCommand RとCommand R+は、エンタープライズグレードの生成AIアプリケーションの構築に利用できる基盤モデルだ。10の言語に対応し、グローバルなビジネス運営をサポートする高度なRAG機能を備えている。
Copyright © ITmedia, Inc. All Rights Reserved.