Wikipediaの記事をより正確にしたい、AIができることは?より良い出典を見つけやすい

MetaはWikipediaの記事の正確性に役立つAIモデルを開発した。Wikipediaの記事には内容を裏付ける出典が記載されている。この出典がふさわしいものかどうかを判定し、より良い出典が提示するAIモデルだ。

» 2022年07月22日 16時50分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 Meta(Facebook)は2022年7月11日(米国時間)、Wikipediaの正確性を高めることが可能なAIモデルを開発したと発表した。Wikipedia編集者をサポートするためのAIを調査する研究プロジェクト「Side」の成果だ。

 Wikipediaの「記事」(項目)を執筆する際には、出典を明記することが必要だとされている。記事の内容に問題がないかどうかを確認でき、読者が調べ物をするときの参考になり、著作権侵害の確認にもなるからだ。

 だが、Wikipediaには英語版だけでも650万以上の記事があり、毎月1万700本以上の記事が追加されている。ある出典がその項目の内容に合致しているか、最もふさわしい出典なのかを確認することは、手間のかかる作業だ。これに対して、MetaのAIは数十万件の出典を一度に自動検証できる。

 Wikimedia財団とMetaは今回のプロジェクトで提携を結んでおらず、Wikipediaのコンテンツを自動的に更新するために利用されるものでもない。だが、テルアビブ大学の講師であり、Wikimedia財団の評議員会副議長を務めるシャニ・イヴェンスタイン・シガロフ氏は「今回の機械学習ツールを使うと、正確な引用や情報源を記事に付ける作業を効率化できるため、Wikipedia編集者の作業規模拡大に役立つ。このプロセスを改善することで、Wikipediaに新しい編集者を呼び込み、世界中の何十億という人々に、より良い、より信頼できる情報を提供できるようになる。さらに機械学習ツールがよりカスタマイズされて、多言語オプションを提供できるようになり、300以上の言語にわたるWikimediaコミュニティーに貢献できるようになれば、この分野の継続的な改善が期待できる」

何を目指したAIツールなのか

 Wikipediaの編集作業を助ける上で、意味の通らない文章や出典を欠いた文章を特定することはそれほど難しくないという。だが記事にある主張に対してその出典が実際に裏付けとなるかどうかを判断するには、より複雑なタスク、つまりAIシステムの深い理解と分析が必要だ。

 今回のAIは何十万もの引用部分を一度に自動スキャンして、それらの出典が本当に対応する主張をサポートしているかどうかをチェックできる最初のモデルだという。既にオープンソースで公開されており、検証デモもある。

 モデルの知識源として1億3400万件の公開Webページから新たにデータセットを作成して用いた。この種の研究にこれまで使われてきたものより1桁大きく、かなり複雑なものだという。疑わしい出典に注意を促し、編集者が何千もの適切に見える出典の中から手動で選択することなく、最も欠陥のありそうなケースを評価できるようにした。さらに引用部分が適切でないと考えられる場合は、より適切な出典を提案し、その主張を裏付ける具体的な文章を指摘できる。最終的には、Wikipediaの編集者が体系的に引用の問題を発見し、引用部分や出典を素早く修正したり、対応する記事の内容を修正したりできるようなプラットフォームを構築することが目標だ。

記事の内容と出典の間には微妙な関係がある

 Wikipediaの記事には出典が十分でないものもある。このような場合でも、MetaのAIは適切な出典を提示できることがある。

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。