スタンフォード大学の研究所は、AI動向をまとめた最新の年次調査レポート「2024 AI Index Report」を公開した。生成AIのトレーニングコストに関する新たな推定値、責任あるAIの展望に関する詳細な分析などを報告している。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Stanford Institute for Human-Centered Artificial Intelligence(HAI:スタンフォード大学人間中心AI研究所)は2024年4月15日(米国時間)、AI動向をまとめた年次調査レポート「2024 AI Index Report」を発表した。
2017年から行われている同レポートの作成、公開は、HAIの独立した取り組みだ。学術界と産業界の専門家から成るAI Index Steering Committee(AIインデックス運営委員会)が主導している。
AI Index Reportは、研究開発、技術的パフォーマンス、倫理、AI政策、ガバナンス、経済、教育など、幅広い観点からAIの動向を測定、評価するものだ。AIに関する議論の根拠となるデータを提供し、意思決定者が人間本位の立場から、責任と倫理を持ってAIを発展させる有意義な行動を取れるようにすることを目的としている。
2024 AI Index Reportのハイライトは次の通り。
AIは、画像分類、視覚的推論、言語理解といった幾つかのベンチマークで人間を上回っている。しかし、競技レベルの数学、視覚的な常識推論、プランニングなど、より複雑なタスクでは後れを取っている。
2023年、産業界は51の注目すべき機械学習モデルを生み出したが、学術界の貢献は15にすぎなかった。一方で、2023年には産学共同研究の成果として21の注目すべきモデルが生まれた。
最先端のAIモデルの学習コストはかつてない水準に達している。OpenAIの「GPT-4」は推定7800万ドル相当のコンピューティングリソースでトレーニングされている。Googleの「Gemini Ultra」は1億9100万ドルだった。
2023年には、61の注目すべきAIモデルが米国を拠点とする機関から生まれ、EU(欧州連合)の21、中国の15を上回った。
今回の調査では、「責任あるAI」(Responsible AI)に関する標準化が著しく欠如していることが明らかになった。OpenAI、Google、Anthropicを含む主要開発者は、責任あるAIのテストに関して、異なるベンチマークを用いている。この慣行は、トップAIモデルのリスクと限界を体系的に比較する取り組みを複雑にしている。
全体的なAIへの民間投資額は2022年に減少した。だが、生成AIへの資金提供は急増し、2023年は、2022年のほぼ8倍の252億ドルに達した。OpenAI、Anthropic、Hugging Face、Inflectionを含む生成AI分野の主要企業は、多額の資金調達を報告した。
2023年、AIが労働に与える影響を評価する研究が幾つか発表された。労働者はAIによってタスクをより迅速に完了し、アウトプットの質を向上させることができることが示唆された。これらの研究はまた、AIが低スキル労働者と高スキル労働者の間のスキルギャップを埋める可能性を示している。しかし、他の研究では、適切な監督なしにAIを使用すると、パフォーマンス低下につながる可能性があると警告している。
2022年、AIは科学的発見の促進に寄与し始めた。2023年にはアルゴリズムによる選別を効率化する「AlphaDev」から、材料発見のプロセスを促進する「GNoME」(Graph Networks for Materials Exploration)に至るまで、科学関連のAIアプリケーションが登場した。
米国におけるAI関連規制の数は、過去5年間で大幅に増加している。2016年にはわずか1つだったAI関連規制は、2023年には25も存在する。2023年だけでも、AI関連規制の総数は56.3%増加した。
調査会社Ipsosによると、過去1年間で、AIが今後3〜5年以内に自分たちの生活に劇的な影響を及ぼすと考える人の割合は60%から66%に増加した。AI製品やサービスについて神経質になっている人の割会は、39%から52%に増加している。ピュー研究所のデータによると、米国では、52%の人々がAIに対する期待よりも不安を示している。
Copyright © ITmedia, Inc. All Rights Reserved.