Microsoft Researchは、大規模言語モデルに与えるプロンプトを圧縮する手法として「LLMLingua」を開発した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Microsoft Researchは2023年12月7日(米国時間)、大規模言語モデル(LLM)に与えるプロンプトを圧縮する手法である「LLMLingua」と、長いコンテキストのシナリオに対応したLLMLinguaである「LongLLMLingua」を開発した。
LLMは優れた能力から、さまざまな分野に応用されている。だが、CoT(Chain-of-Thought:思考の連鎖)、ICL(In-Context Learning:コンテキスト内学習)、RAG(Retrieval-Augmented Generation:検索拡張生成)といった技術の進歩により、LLMに与えるプロンプトはますます長くなり、時には数万トークンを超えることもある。
プロンプトが長くなると「APIレスポンスのレイテンシの増加」「コンテキストウィンドウの制限の超過」「コンテキスト情報の損失」「高額なAPI課金」「Lost in the middle(関連情報をプロンプトの中央に配置すると精度が著しく落ちる)」などコスト増やパフォーマンス低下といった問題が発生する。
Microsoft Researchはこれらの問題に対処するため、プロンプトを圧縮するLLMのための言語を構築する一連の取り組みに乗り出し、LLMLinguaとLongLLMLinguaを開発した。
LLMLinguaは以下のような特徴を持つ。
一方、LongLLMLinguaは、長いコンテキストのシナリオでLLMが直面する3つの主要な課題(高い計算/金銭的コスト、レイテンシの増加、パフォーマンス低下)への対処を目的としている。「LLMのパフォーマンスは、入力プロンプトにおける重要情報(質問に関連する情報)の密度と位置の両方に依存する」という先行研究の知見に触発され、LLMが重要情報を認識する能力を向上させるプロンプト圧縮手法として開発されている。
LongLLMLinguaは幾つかのベンチマークで以下を達成した。
LLMLinguaとLongLLMLinguaは、CoT、長いコンテキスト、RAGなど、幅広いシナリオに適用できる。
Microsoft Researchは、LLMLinguaとLongLLMLinguaのプロジェクトページとGitHubリポジトリ(examplesフォルダ)で、RAG、オンラインミーティング、CoT、コード補完などに両者を適用した例を紹介している。
LLMLinguaとLongLLMLinguaのコードは、GitHubリポジトリで公開されている。
Copyright © ITmedia, Inc. All Rights Reserved.