主に自然言語処理における「人工知能(AI)のハルシネーション(Hallucination:幻覚)」とは、もっともらしいウソ(=事実とは異なる内容や、文脈と無関係な内容)の出力が生成されることである。人間が現実の知覚ではなく脳内の想像で「幻覚」を見る現象と同様に、まるでAIが「幻覚」を見て出力しているみたいなので、このように呼ばれる。
このキーワードは、チャットAI「ChatGPT」などの生成AIが広く使われるようになってから注目されている。現状の生成AIは、実際にはトレーニングしていない情報を「幻聴/幻視」して、信頼できない出力や誤解を招く出力を生成する場合がある。
例えばChatGPTで「日本にいた恐竜の名前を教えてください」と質問したところ、自信満々に一例として「オオシマサウルス(Oshimasaurus)」が挙げられたが(図1)、これはネット検索してもヒットしないので恐らく「もっともらしいウソ」だと思われる。このようにハルシネーションには、AIから返答を受け取った人間が「本当かどうか」の判断に困るという問題がある。
生成AI側でハルシネーション問題に対処しようとする動きがある。例えばOpenAIの「ChatGPT」では、知らない情報に関する質問に対しては「私が知る限り、○○については情報が得られませんでした。正確な情報をお伝えできず申し訳ありません」と返答する場合があった。GoogleのチャットAI「Bard」(「吟遊詩人」という意味)では、知らない計算に関する質問に対して「私は言語モデルでしかなく、それを処理し理解する能力がないため、お役に立てません」と返答する場合がある。
また、Webアクセスを質問に含めることで「もっともらしいウソ」を軽減しようとする動きもある。例えば「Bing検索のチャット機能」には、幾つかのサイトを検索した上で質問に回答する機能が搭載されている。
本稿では「もっともらしいウソ」という分かりやすさ、伝わりやすさを重視した表現を用いた。しかし、ウソとは「事実ではないことを、人をだますために言う言葉」であり、つまりウソには人の意思が介在すると想定される。AIにはだます意思はないと考えられるので、厳密には「ウソ」というよりも、カッコ書きで記した「事実とは異なる内容や、文脈と無関係な内容」という意味になる。
Bing検索のチャット機能について追記しました。また、「ウソ」という説明に対する注記を追加しました。
Copyright© Digital Advantage Corp. All Rights Reserved.