検索
ニュース

オープンソースのLLMをローカルで実行できる「Ollama」Windowsプレビュー版、公開ビジョンモデルの実行にも対応

Ollama Projectは、オープンソースの大規模言語モデルをローカル環境で実行できる「Ollama」のWindowsプレビュー版を公開した。

Share
Tweet
LINE
Hatena

 Ollama Projectは2024年2月15日(米国時間)、オープンソースの大規模言語モデル(LLM)をローカル環境で実行できる「Ollama」のWindowsプレビュー版を公開した。

 Ollamaは、「Llama 2」「Mistral」「Gemma」などの大規模言語モデルのダウンロード、実行、作成、カスタマイズができるオープンソースのツールだ。

Ollamaの特徴

ハードウェアアクセラレーション

 Ollamaは、NVIDIA GPUやIntel AVX(Intel Advanced Vector Extensions)/AVX2などのCPU命令セットを使用してモデルの実行を高速化するハードウェアアクセラレーションに対応している。同機能は既にOllamaに組み込まれており、追加の設定や仮想化は不要だ。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る