AI業界で有名なカルパシー氏が提案し、5千超のスターを集めた「LLM Wiki」。話題の新概念をやさしく整理しながら、その仕組みやRAGとの違い、試してみるためのツールやコミュニティーの動きまで紹介する。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
元テスラのAI責任者で、OpenAIの共同創業者でもあるアンドレイ・カルパシー(Andrej Karpathy)氏が、2026年4月上旬に「LLM Wiki」という興味深いアイデアを示した。これが今、大きな話題になっている。しかし、この概念はやや分かりづらく、一部で余計な論争も招いているように見える。そこで本稿では、この新しい概念を筆者なりにかみ砕いて説明したい。
LLM Wikiとは、AIがメモや資料を整理し、その内容を更新しながら、“使える知識”へと育てていくための新しい仕組みだ。現在主流のRAG(検索拡張生成)では、AIは“知識”を主に「参照/検索する」対象として扱う。これに対しLLM Wikiでは、AIは“知識”を「管理/運用する」対象として扱う。そこが両者の根本的な違いなのである。
図の左側にあるのは、バラバラにたまったメモやPDF、記事などの「元資料」だ。これまでの一般的なAI活用では、AIは質問のたびにこの山から関連する情報を探し出していた。しかしLLM Wikiでは、図の中央にあるようにAIが「整理役」となり、バラバラな資料を読み解いて、右側にあるような整理された「百科事典(Wiki)」へと編さん(内容を整理してまとめること)していく。
この仕組みを支えるのが、カルパシー氏が提唱する「3つの構成要素」だ。具体的には、
の3つである(詳細後述)。AIは新しい資料を追加するたびに、既存のWikiページを書き換え、関連するページをリンクで結ぶ。これにより、バラバラだった情報は、相互につながった1つの構造体へと育っていく。この構造体、つまりWiki全体こそが、図の右側にある“使える知識”で、いわゆる知識ベース(ナレッジベース:Knowledge Base)となる。
最も重要なのは、Wikiページの“メンテナンス”をAIが継続的に行う点だ。これまで人間がWikiを作っても挫折しがちだったのは、継続的な情報の更新やリンクの張り直しが面倒だからである。LLM Wikiなら、AIが飽きることなく裏側で“メンテナンス”を続けてくれる。その結果、使い込むほどに知識が積み重なり、価値が増していく「資産」としての知識ベースが出来上がるのだ。
――ここからは『Deep Insider Brief』恒例の“ひと言コメント”として、前述した論争についても簡単に私見を述べる。その後で、カルパシー氏が提唱する各構成要素の詳細や、実際に使うファイルについてコンパクトにまとめる。また、LLM Wikiを試すためのツールやコミュニティーの動きも紹介する。
Deep Insider編集長の一色です。こんにちは。
ここまで読んで「面白い」と感じた方も多いと思いますが、実はこのLLM Wiki、英語圏のHacker NewsやReddit、Xなどで賛否両論となり、日本語圏でもXを中心に議論が広がっていました。冒頭でも触れた通り、私から見ると、すれ違いによる無用な論争が少なからず起きていたように思います。
原因の一つは、カルパシー氏自身がLLM WikiをRAGとの対比で説明したことにあるのではないでしょうか。これにより、「LLM Wikiも、質問に答える際にはAIが関連ページを探して読んでいるのだから、本質的にはRAGと変わらないのではないか。ファイルが増えれば、やはりベクトル検索も必要になる」と受け取る人たちが現れました。
しかし、私はこの批判は少し軸がずれていると感じています。LLM Wikiの目的は検索そのものではなく、メンテナンスされ続ける“自分だけの百科事典”を作ることにあります。一方で、RAGの目的は百科事典を作ることではなく、関連情報を取り出すことです。そもそも、その百科事典の中をベクトル検索やキーワード検索で探すことは、もちろん可能ですし、何も禁じられていません。
つまり、RAGとLLM Wikiを対立軸で語ること自体に無理があると私は考えています。LLM Wikiは検索手法の新旧として捉えるより、「AIに自分だけの百科事典を作らせ、維持させる仕組み」として受け取った方が、このLLM Wikiの「面白さ」はずっとストレートに伝わるはずです。
それでは、カルパシー氏が公開した内容に基づき、LLM Wikiを構成する要素と運用の流れを確認しよう。
LLM Wikiは、役割の異なる3つの要素で構成される。
Wikiを健全に育てるために、以下の3つの操作を繰り返す。
新しい資料を元資料に追加すると、AIがそれを読み込み、要約ページを作成し、目次を更新し、関連する既存ページも修正する。カルパシー氏によると、1つの資料の追加で10〜15ページに影響することもあるという。
Wikiに対して質問すると、AIがまず目次(index.mdファイル)を読み、関連ページをたどって回答を組み立てる。ここで重要なのは、良い回答はWikiの新しいページとして保存できる点だ。普通のチャットでは、良い分析が生まれても会話の中に埋もれてしまう。LLM Wikiでは、その分析自体をページ化して蓄積できる。
定期的にAIにWiki全体の健全性をチェックさせる操作だ。具体的には以下のような問題を検出する。
Wikiが大きくなっても、AIと人間が迷わないために、2つの特別なファイルが用意されている。
カルパシー氏は、以下のような活用例を挙げている。
カルパシー氏自身は、Obsidian(オブシディアン:Markdownエディタ)を横に開き、反対側にAIエージェント(Claude Codeなど)を配置して使っている。AIがWikiを編集すると、Obsidianのグラフビュー(ページ間のリンクを視覚化する機能)でリアルタイムに変化を確認できるという。
LLM Wikiはまだコンセプト先行の段階であり、誰もが使える決定版ツールは存在しない。ただし、カルパシー氏の公開からわずか数日で複数のオープンソース実装が登場しており、動きは速い。
カルパシー氏自身がGist(ギスト:GitHub上でコードや文書を手軽に共有できるサービス)の中で挙げている主なツールは以下の通りだ。
カルパシー氏のGistは5千以上のスターを集め、コメント欄には多数の実装報告が寄せられている。代表的なものを紹介するが、複数の流儀が並立している段階であり、まだ「これ」とお薦めできるものはない。
最後に、LLM Wikiに対する主な懸念も押さえておこう。コミュニティーでは以下のような指摘があった。
Copyright© Digital Advantage Corp. All Rights Reserved.
編集部からのお知らせ