GitHubは、LLMアプリケーションを構築するために知っておくべき5つのステップを公式ブログで紹介した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
GitHubは2023年10月30日(米国時間)、LLMアプリケーションを構築するために知っておくべき5つのステップを公式ブログで紹介した。
同社は、LLMやあらゆる機械学習(ML)モデルを使ったソフトウェアの構築は、LLMを使わないソフトウェアの構築とは根本的に異なると主張している。一連のコマンドを実行するためにソースコードをバイナリにコンパイルするのではなく、開発者は一貫性のある正確な出力を生成するために、データセット、エンベッディング、パラメーターの重みをナビゲートする必要があることが要因の一つだという。
重要なのは、適切な大きさの問題を見つけること。すぐに反復して前進できるように十分に集中しているが、適切なソリューションがユーザーを驚かせるのに十分な課題感がふさわしい。
例えば、GitHub Copilotチームは、開発者が抱える全ての問題をAI(人工知能)で解決しようとするのではなく、最初はソフトウェア開発ライフサイクルの一部分、つまりIDEでの関数のコーディングに焦点を当てた。
事前に訓練されたモデルでLLMアプリを構築することでコストを節約できるが、適切なものを選ぶにはどうすべきか。考慮すべき要素を幾つか次に挙げる。
最終的にLLMアプリを販売したい場合は、商用利用が許可されたAPIを持つモデルを使用する必要がある。
LLMのサイズは、70億から1750億パラメータほどだが、3億5000万パラメータといった小さいものもある。ほとんどのLLMは(執筆時点で)70億から130億のパラメータを持つ。
従来の常識では、モデルのパラメータ(モデルの出力を向上させるために調整可能な変数)が多ければ多いほど、モデルは新しい情報を学習し、予測を提供する能力が高くなると考えられてきた。しかし、より小さなモデルの性能向上は、その考えを覆しつつある。小型モデルは、より高速で安価でもある。こうしたモデルの予測の質が向上したことで、有名なモデルを適用しにくい数々のアプリケーションにおいて有力な選択肢となり得る。
Copyright © ITmedia, Inc. All Rights Reserved.