「間違った情報を自信たっぷりに言う問題」に対応したAIモデル Googleが発表「Project Tailwind」からブランド名を変更

Googleはノート作成ソフトウェア「NotebookLM」について発表した。生成AI(人工知能)のようにテキストを要約させたり提案をさせたりすることができる。最も大きな特徴は、言語モデルをユーザーごとに「グラウンド」できることだ。

» 2023年07月31日 08時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 Googleは2023年7月12日(米国時間)、ノート作成ソフトウェア「NotebookLM」について発表した。これは2023年の「Google I/O」で発表された「Project Tailwind」から名前を変えたもので、Google Labsの実験的な製品として展開される。強力な言語モデルを備えており、生成AIのようにテキストを要約させたり提案をさせたりできる。

画像 プレスリリース

ハルシネーションにはグラウンディングで対抗

 Googleは次のように述べている。

 「情報が急激に増加したことで、その扱いに悩む人が増えている。複数のソースから事実やアイデアを統合することは容易ではないし、新しい情報源を見つけても既存の情報とのつながりを作るために時間がかかるという問題もある」

 この問題を解決するため生成AIなど対話型のAIモデルを使う動きもあるが、「誤った情報でも自信たっぷりに回答してしまう」という課題(“ハルシネーション”<幻覚>)もある。NotebookLMはこの課題に対応するため、ユーザーのノートや情報源に言語モデルを“グラウンディング”(土台にする、根付かせる)できるようになっている。これは簡単に言えば、AIが回答に使うソースをユーザーが設定できるということだ。

 例えば、医学生が神経科学に関する科学論文をNotebookLMにアップロードし、「ドーパミンに関連する主要用語の用語集を作成してください」と指示すれば、論文を基にした適切な用語集を作成できる。

 Googleは、NotebookLMの利用方法として「要約」「質問への回答」「アイデアの創出」の3つを想定している。NotebookLMがアクセスできるのはユーザーが設定したソースだけで、スクリプトなどのユーザーの情報は他者には公開されず、「新しいAIモデルのトレーニングにも使用されない」としている。

 先に述べたようにAIの回答ソースが明確なため、“ハルシネーション”の懸念は減る。また、複数のソースを使用している場合は各回答にソースから最も関連性の高い引用を表示されるため、Googleは「簡単にファクトチェックできる」と話す。ただし、基にするデータに不備(もしくは間違い)があると当然回答もそれに準じたものになる。Googleもその点については「AIの回答を基のソースと照らし合わせて事実を確認することは常に重要だ」と注意を促している。

 なお、2023年7月現在、NotebookLMは米国の一部のユーザーやグループに対してのみ提供される予定だ。

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。