AI(人工知能)の普及が加速し、早々にAI規制の枠組みやインフラの確立が求められている。本稿では、国際規制機関が対処すべきAIの脅威をカテゴリー別に3つ紹介する。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
ガートナーの米国本社発のオフィシャルサイト「Insights」や、アナリストらのブログサイト「Gartner Blog Network」などから、@IT編集部が独自の視点で“読むべき記事”をピックアップして翻訳。グローバルのITトレンドを先取りし「今、何が起きているのか、起きようとしているのか」を展望する。
米上院で2023年5月16日(米国時間)に開かれたAI(人工知能)規制に関する公聴会は有意義なものとなり、AIを規制する必要性について超党派の合意が形成された。
だが、そこから何かが生まれるとは期待しない方がいい。米国政府がAIを規制するために行ってきたことはほぼ皆無だ。議会では、関連する立法はほとんど行われていない。行政府は、AI規制に関する研究を委託し、その一部に資金を提供している。だが、AI規制の枠組みやインフラの確立において、欧州に大きく後れを取っている。
これまでの米国政府の新技術に対する規制実績からすれば、こうなるのも無理はない。ソーシャルメディアや暗号通貨業界に対する規制の失敗は明白だ。これらの分野では、解決策は比較的明確だった。だが、数百万人の米国市民が取り返しのつかない被害を受けた。
AIの場合、ジェフリー・ヒントン(Geoffrey Hinton)氏やマックス・テグマーク(Max Tegmark)氏といったAIの専門家でさえ、人類存亡の脅威に対する有効な解決策を見いだせずに苦慮している。AIが人間より賢くなれば、人間は不要で邪魔な存在と考えるようになる可能性が高い。それでも、いずれはAIの専門家が、有効な解決策を考え出す可能性もある。
OpenAIは、生成AI(ジェネレーティブAI)の強力な基盤モデルを管理する数社のうちの1社だ。これらの営利企業は互いに、そして中国の企業や政府機関と競合している。AIの安全対策は、全てのベンダーによって実施される場合にのみ効果を発揮する。米国が規制するシステムが安全で、中国のものが安全でなければ意味がない。
最も現実的な対策は、AIベンダーに対する強制力を持つ国際的な規制機関を設立することだ。
規制の対象となり、営業許可を得る必要がある企業の審査基準を策定する必要があるが、まず「GPT-4」のようなAI基盤モデルをホストするベンダーから始めるべきだ。
以下では、新しい国際規制機関が早急に対処すべきAIの脅威を、3つのカテゴリー別に紹介する。脅威の軽減策も盛り込んでいる。
Copyright © ITmedia, Inc. All Rights Reserved.