ニュース
オープンソースのLLMをローカルで実行できる「Ollama」Windowsプレビュー版、公開:ビジョンモデルの実行にも対応
Ollama Projectは、オープンソースの大規模言語モデルをローカル環境で実行できる「Ollama」のWindowsプレビュー版を公開した。
Ollama Projectは2024年2月15日(米国時間)、オープンソースの大規模言語モデル(LLM)をローカル環境で実行できる「Ollama」のWindowsプレビュー版を公開した。
Ollamaは、「Llama 2」「Mistral」「Gemma」などの大規模言語モデルのダウンロード、実行、作成、カスタマイズができるオープンソースのツールだ。
Ollamaの特徴
ハードウェアアクセラレーション
Ollamaは、NVIDIA GPUやIntel AVX(Intel Advanced Vector Extensions)/AVX2などのCPU命令セットを使用してモデルの実行を高速化するハードウェアアクセラレーションに対応している。同機能は既にOllamaに組み込まれており、追加の設定や仮想化は不要だ。
関連記事
- Google、商用利用可能な軽量オープンAIモデル「Gemma」を公開
Googleは、大規模言語モデル「Gemma」を提供開始した。「Gemini」と同じ研究と技術に基づく軽量のオープンモデルファミリーだ。 - Meta、生成AIモデルを使った責任ある開発を支援する「Purple Llama」プロジェクトを発表
Metaは、オープンな生成AIモデルを使った責任ある開発を支援する包括的プロジェクト「Purple Llama」を立ち上げた。 - コーディング用LLM「Code Llama」70Bの高性能版が登場
コードと自然言語のプロンプトからコードとコード関連の自然言語を生成する「Code Llama」の高性能バージョン「Code Llama 70B」がリリースされた。高いパフォーマンスを示しており、ベンチマークテストでも他のLLMをしのぐという。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.