Microsoftは「Visual Studio Code」向けに、「GitHub Copilot」をローカルAIモデルで稼働させる拡張機能「Foundry Local」の使い方を公開した。データプライバシーを保ちながら、料金を抑えたAIアシスタントを利用できる。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Microsoftは2025年9月18日(米国時間)、開発者向けブログで「Foundry Local」の使い方を公開した。Foundry Localは同社が同年5月に発表した機能で、この機能によって「Visual Studio Code」(以下、VS Code)でローカルAI(人工知能)モデルを用いたAIコーディングアシスタント「GitHub Copilot」が使えるようになる。
従来、AIアシスタントを使うには、AIモデルを動作させるための計算処理をクラウドサーバで実行しなければならなかった。この構造では開発者が作成したコードやプロンプトを外部に送信する必要があるため、データのプライバシーや利用料金が課題となっていた。Foundry LocalはAIモデルをPC上で実行できる仕組みを提供し、データを外部に送らずにAIアシスタントを利用できるようにする点が特徴だ。これによって、開発者は機密性が求められる業界やプロジェクトでもAIアシスタントを使えるようになる。
Foundry Localを使うには、まずVS CodeにGitHub Copilotと拡張機能「AI Toolkit for Visual Studio Code」(以下、AI Toolkit)を導入する。AIモデルの提供元として「Foundry Local via AI Toolkit」を指定すると、PC内のローカルモデルを選択できるようになる。必要に応じてAIモデルは自動でダウンロードされ、以降はオフラインで利用可能だ。
利用可能なAIモデルには、多言語処理やコード生成を得意とする「Qwen」、効率的な推論を重視する「Phi」、OpenAIの「GPT」などがある。
MicrosoftはFoundry Localの主な利点として以下を挙げている。
Q: Microsoftが公開した「Foundry Local」とは?
A: VS Code上でローカルAIモデルを利用し、GitHub Copilotを動作させる機能。従来はAI処理をクラウドで実行する必要があり、コードやプロンプトを外部に送信するためプライバシーリスクやクラウド利用料の負担があったが、ローカルAIモデルを使うことでデータを外部に送らずに安全かつ安価にAIアシスタントを利用できるようになる。
Q: Foundry Localを利用する手順は?
A: VS CodeにGitHub Copilotと拡張機能「AI Toolkit」を導入し、AIモデルの提供元として「Foundry Local via AI Toolkit」を指定。必要なモデルは自動ダウンロードされ、以降はオフラインで利用できる。
Q: 主なメリットは?
Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。