Docker、生成AIアプリの開発環境構築を容易にする「GenAI Stack」を発表「Neo4j」「LangChain」「Ollama」とともに発表

Dockerは「GenAI Stack」を発表した。生成AIによるアプリケーション開発に必要な開発環境が、Dockerコンテナを通じて連携可能な状態で提供されるものだ。「GenAI Stack」の概要や入手方法などを紹介する。

» 2023年10月25日 11時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 Dockerは2023年10月3日から10月5日に開催されたDockerCon 2023で、「Neo4j」「LangChain」「Ollama」とともに「GenAI Stack」を発表した。

 GenAI Stackは、Dockerおよび生成AI(GenAI)分野の先端技術を結集したもので、開発者はわずか数クリックでGenAI Stackをデプロイし、生成AIを活用したアプリケーションを開発、構築できるという。

GenAI Stackの特徴は

 GenAI Stackを利用することで、AI/機械学習(ML)モデルの統合を簡素化し、生成AI技術を容易に利用できる。Ollama、Neo4jなど生成AIによるアプリケーション開発に必要な開発環境が、Dockerコンテナで連携可能な状態で提供される。

 GenAI Stackには、以下の機能が含まれている。

設定済みの大規模言語モデル(LLM)

 Llama 2、GPT-3.5、GPT-4などの大規模言語モデル(LLM:Large Language Models)を設定済みで提供する。

OllamaによるLLMの実行、管理

 LLMの実行ツールであるOllamaにより、オープンソースLLMのローカル管理が簡素化され、AI開発プロセスをスムーズにする。

Neo4jでベクトル検索やナレッジグラフに対応

 グラフ指向のデータベースであるNeo4jを組み込み、ベクトル検索機能を提供する。これにより、データのパターンや関係性が明らかになり、AI/MLモデルのスピードと精度の向上が期待できるという。また、Neo4jはAIの実装における長期記憶としても機能する。Neo4jのナレッジグラフ機能により、正確な予測と結果を生み出すことが可能になるとしている。

LangChainによるオーケストレーション

 LangChainは、堅牢(けんろう)なベクトルインデックスとともに、LLM、アプリケーション、データベース間の通信を容易にする。LLMを搭載したアプリケーションを開発するためのフレームワークとしても機能する。LangChainには、LLMアプリケーションのデバッグ、テスト、評価、監視するツールであるLangSmithが含まれている。

包括的なサポート

 GenAI Stackの使用をサポートするために、Dockerはさまざまなツール、コードテンプレート、ハウツーガイド、GenAI Stackのベストプラクティスを提供する予定だ。これらのリソースにより、必要なガイダンスを確実に得ることができるだろう。

GenAI Stackガイドとコンポーネントへのアクセス画面例 GenAI Stackガイドとコンポーネントへのアクセス画面例

 GenAI Stackは現在早期アクセスで利用可能であり、Docker DesktopラーニングセンターまたはGitHubから入手できる。

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。