検索
ニュース

2022年に最も引用されたAI論文100選を公開 米国、中国に続くAI研究大国はどこ?公開論文数はGoogle一強だが、注目の論文はOpenAIが占める

Zeta Alphaは、2022年に最も引用されたAIに関する100本の論文リストや世界各国のAI論文発表数などの調査結果を公開した。

Share
Tweet
LINE
Hatena

 エンタープライズ向けのAIソリューション開発支援を行うZeta Alphaは2023年3月8日(米国時間)、2022年に最も引用されたAIに関する100本の論文リストや世界各国のAI論文発表数などの調査結果を公開した。

 Zeta Alphaは、同社プラットフォームからのデータと慎重な人的キュレーション(方法については後述)を用いて、2022年、2021年、2020年のAI分野の上位引用論文を集め、著者の所属と国名を分析した。これにより、純粋な出版量ではなく、研究開発へのインパクトで順位をつけることができるという。


年間被引用数上位100位までの論文数(図1)(出所:Zeta Alpha)

 同社ブログではまず、2022年から2020年の間に公開された引用数の多い論文を幾つか紹介した。

2022年

  • 1.AlphaFold Protein Structure Database: massively expanding the structural coverage of protein-sequence space with high-accuracy models(執筆:DeepMind、引用数:1372)
  • 2.ColabFold: making protein folding accessible to all(執筆:複数の機関、引用数:1162)
  • 3.Hierarchical Text-Conditional Image Generation with CLIP Latents(執筆:OpenAI、引用数:718)
  • 4.A ConvNet for the 2020s(執筆:Meta、カリフォルニア大学バークレー校、引用数:690)
  • 5.PaLM: Scaling Language Modeling with Pathways(執筆:Google、引用数:452引用)

2021年

  • 1.Highly accurate protein structure prediction with AlphaFold(執筆:DeepMind、引用数:8965)
  • 2.Swin Transformer: Hierarchical Vision Transformer using Shifted Windows(執筆:Microsoft、引用数:4810)
  • 3.Learning Transferable Visual Models From Natural Language Supervision(執筆:OpenAI、引用数:3204)
  • 4.On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?(執筆:ワシントン大学、Black in AI、The Aether、引用数:1266)
  • 5.Emerging Properties in Self-Supervised Vision Transformers(執筆:Meta、引用数:1219)

2020

  • 1.An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale(執筆:Google、引用数:11914)
  • 2.Language Models are Few-Shot Learners(執筆:OpenAI、引用数:8070)
  • 3.YOLOv4: Optimal Speed and Accuracy of Object Detection(執筆:中央研究院《台湾》、引用数:8014)
  • 4.Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer(執筆:Google、引用数:5906)
  • 5.Bootstrap your own latent: A new approach to self-supervised Learning(執筆:DeepMind、インペリアルカレッジロンドン、引用数:2873)

過去3年間で最も引用された論文の傾向

 これらの上位被引用論文の出どころを見ると(図1)、米国が3年連続で優勢を保っており、大国間の差は年ごとにわずかに変化する程度であることが分かる。

 米国の優位性を適切に評価するために、単なる論文数ではなく、国ごとの累積引用数を示す。年ごとに意味のある比較ができるよう、1年当たりの総引用数で正規化する。


上位100位までの年間被引用回数の割合(図2)(出所:Zeta Alpha)

 米国と中国以外では、明らかに英国が最も強いプレイヤーといえる。しかし、英国の貢献度は2022年に、それまでの年(60%)よりもさらに高い割合をDeepMindが占めている(英国全体の69%)。地域ごとに見ると、北アメリカが大きくリードしており、アジアはわずかにヨーロッパよりも上回っている。


地域別上位100位までの論文数(図3)(出所:Zeta Alpha)

 トップ100における主要組織の論文数を比較する。


組織別上位100位までの論文数(図4)(出所:Zeta Alpha)

 Googleが一貫して最強のプレーヤーで、Meta、Microsoft、カリフォルニア大学バークレー校、DeepMind、スタンフォード大学と続く。最近のAI研究は産業界が主導権を握っており、個々の学術機関はそれほど大きなインパクトを生み出していないが、数は多いため、組織タイプで集計すると、均等になる。


組織タイプ別上位100位までの論文数(図5)(出所:Zeta Alpha)

この3年間でどれくらいの論文が発表されたのか


組織別出版論文総数(図6)(出所:Zeta Alpha)

 総論文数では、Googleがまだリードしているが、引用数トップ100と比較すると、他との差はかなり小さくなっている。出版量のトップ20の中にOpenAIやDeepMindは見当たらない。これらの機関は、出版量は少ないが、インパクトは高い。図7は、組織が出版した論文が引用数トップ100に入る割合を示している。


組織別公開した論文が被引用数トップ100に入っている割合(図7)(出所:Zeta Alpha)

 OpenAIは、出版する論文を絶対的な大作にすることに関して、抜きん出ていることが分かる。OpenAIのマーケティングの魔法が彼らの人気を押し上げるのに役立っているとは確かだが、最近の研究の幾つかは、優れた品質であることは否定できない。論文数は少ないが、素晴らしい被引用数論文トップ100への掲載率を誇るのは、大規模言語モデルの解釈可能性とアライメントに焦点を当てた非営利団体、EleutherAIだ。

2022年、最も引用された論文トップ100

 最後に、トップ100のリストそのものを、タイトル、引用回数、所属先とともに紹介する。


2022年最も引用された論文トップ100Zeta Alphaブログ上でも全論文リストを公開している)(出所:Zeta Alpha)

最も引用された論文トップ100の調査方法

 Zeta Alphaプラットフォームで年ごとに最も引用された論文を収集し、最初の出版日(通常はarXivのプレプリント)を手動でチェックし、論文を正しい年に配置する。このリストを、Semantic Scholarで被引用数の多いAI論文を検索して補足した。これにより、主に、インパクトのあるクローズドソース出版社(Nature、Elsevier、Springer、その他のジャーナルなど)の論文を追加できた。次に、各論文の代表的な指標としてGoogle Scholarでの被引用数を取り上げ、この数で論文をソートして、その年のトップ100を得る。これらの論文について、GPT-3を用いて著者、所属、国を抽出し、その結果をZeta Alphaが手作業で確認した(出版物から国が明確に分からない場合は、組織の本社の所在国を採用)。複数の所属の著者を持つ論文は、それぞれの所属について1回ずつカウントした。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る