この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Googleは2024年9月12日(米国時間)、大規模言語モデル(LLM)のハルシネーション(幻覚)の課題に対処するため、同社の「Data Commons」に接続するよう設計された初のオープンLLM「DataGemma」を発表した。
ハルシネーションは、LLMが不正確な情報に関して自信を持って提示する現象を指す。これは生成AI(人工知能)における重要な課題となっている。Googleは、検証可能な統計データでグラウンディング(接続)され、事実に関する複雑な推論が可能な、より信頼できるLLMを構築する研究を推進している。
- 生成AIのグラウンディング(Grounding)とは?
用語「グラウンディング」について説明。特定の知識や情報源(ナレッジベースなど)に基づいて言語モデルの生成内容を裏付けるプロセスのことで、チャットAIに独自の情報源を付与するRAG(検索拡張生成)という仕組みがその代表例。チャットAIがもっともらしいウソを答える問題(=ハルシネーション)を減らせるといったメリットがある。
- ハルシネーション(Hallucination)とは?
ハルシネーションとは、チャットAIなどが、もっともらしい誤情報(=事実とは異なる内容や、文脈と無関係な内容)を生成することを指す。AIから返答を受け取った人間が「本当かどうか」の判断に困るという問題がある。この問題を回避する方法として、独自の情報源を付与するRAGや、Webアクセスを含める機能などがある。
- RAG(Retrieval-Augmented Generation:検索拡張生成)とは?
用語「RAG」について説明。ChatGPTなどのチャットAIに独自の情報源を付与する仕組みのことで、具体的には言語モデルによるテキスト生成に特定の情報源(ナレッジベース)の検索を組み合わせること。これには、生成内容の正確さを向上させるメリットがある。
Copyright © ITmedia, Inc. All Rights Reserved.