Dockerは「GenAI Stack」を発表した。生成AIによるアプリケーション開発に必要な開発環境が、Dockerコンテナを通じて連携可能な状態で提供されるものだ。「GenAI Stack」の概要や入手方法などを紹介する。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Dockerは2023年10月3日から10月5日に開催されたDockerCon 2023で、「Neo4j」「LangChain」「Ollama」とともに「GenAI Stack」を発表した。
GenAI Stackは、Dockerおよび生成AI(GenAI)分野の先端技術を結集したもので、開発者はわずか数クリックでGenAI Stackをデプロイし、生成AIを活用したアプリケーションを開発、構築できるという。
GenAI Stackを利用することで、AI/機械学習(ML)モデルの統合を簡素化し、生成AI技術を容易に利用できる。Ollama、Neo4jなど生成AIによるアプリケーション開発に必要な開発環境が、Dockerコンテナで連携可能な状態で提供される。
GenAI Stackには、以下の機能が含まれている。
Llama 2、GPT-3.5、GPT-4などの大規模言語モデル(LLM:Large Language Models)を設定済みで提供する。
LLMの実行ツールであるOllamaにより、オープンソースLLMのローカル管理が簡素化され、AI開発プロセスをスムーズにする。
グラフ指向のデータベースであるNeo4jを組み込み、ベクトル検索機能を提供する。これにより、データのパターンや関係性が明らかになり、AI/MLモデルのスピードと精度の向上が期待できるという。また、Neo4jはAIの実装における長期記憶としても機能する。Neo4jのナレッジグラフ機能により、正確な予測と結果を生み出すことが可能になるとしている。
LangChainは、堅牢(けんろう)なベクトルインデックスとともに、LLM、アプリケーション、データベース間の通信を容易にする。LLMを搭載したアプリケーションを開発するためのフレームワークとしても機能する。LangChainには、LLMアプリケーションのデバッグ、テスト、評価、監視するツールであるLangSmithが含まれている。
GenAI Stackの使用をサポートするために、Dockerはさまざまなツール、コードテンプレート、ハウツーガイド、GenAI Stackのベストプラクティスを提供する予定だ。これらのリソースにより、必要なガイダンスを確実に得ることができるだろう。
GenAI Stackは現在早期アクセスで利用可能であり、Docker DesktopラーニングセンターまたはGitHubから入手できる。
Copyright © ITmedia, Inc. All Rights Reserved.