AI(人工知能)の普及が加速し、早々にAI規制の枠組みやインフラの確立が求められている。本稿では、国際規制機関が対処すべきAIの脅威をカテゴリー別に3つ紹介する。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
ガートナーの米国本社発のオフィシャルサイト「Insights」や、アナリストらのブログサイト「Gartner Blog Network」などから、@IT編集部が独自の視点で“読むべき記事”をピックアップして翻訳。グローバルのITトレンドを先取りし「今、何が起きているのか、起きようとしているのか」を展望する。
米上院で2023年5月16日(米国時間)に開かれたAI(人工知能)規制に関する公聴会は有意義なものとなり、AIを規制する必要性について超党派の合意が形成された。
だが、そこから何かが生まれるとは期待しない方がいい。米国政府がAIを規制するために行ってきたことはほぼ皆無だ。議会では、関連する立法はほとんど行われていない。行政府は、AI規制に関する研究を委託し、その一部に資金を提供している。だが、AI規制の枠組みやインフラの確立において、欧州に大きく後れを取っている。
これまでの米国政府の新技術に対する規制実績からすれば、こうなるのも無理はない。ソーシャルメディアや暗号通貨業界に対する規制の失敗は明白だ。これらの分野では、解決策は比較的明確だった。だが、数百万人の米国市民が取り返しのつかない被害を受けた。
AIの場合、ジェフリー・ヒントン(Geoffrey Hinton)氏やマックス・テグマーク(Max Tegmark)氏といったAIの専門家でさえ、人類存亡の脅威に対する有効な解決策を見いだせずに苦慮している。AIが人間より賢くなれば、人間は不要で邪魔な存在と考えるようになる可能性が高い。それでも、いずれはAIの専門家が、有効な解決策を考え出す可能性もある。
OpenAIは、生成AI(ジェネレーティブAI)の強力な基盤モデルを管理する数社のうちの1社だ。これらの営利企業は互いに、そして中国の企業や政府機関と競合している。AIの安全対策は、全てのベンダーによって実施される場合にのみ効果を発揮する。米国が規制するシステムが安全で、中国のものが安全でなければ意味がない。
最も現実的な対策は、AIベンダーに対する強制力を持つ国際的な規制機関を設立することだ。
規制の対象となり、営業許可を得る必要がある企業の審査基準を策定する必要があるが、まず「GPT-4」のようなAI基盤モデルをホストするベンダーから始めるべきだ。
以下では、新しい国際規制機関が早急に対処すべきAIの脅威を、3つのカテゴリー別に紹介する。脅威の軽減策も盛り込んでいる。
規制当局は、生成AIモデルが人間の価値観に沿った、事前に合意された目標や指示に従うようにトレーニングされたことを、AIモデルベンダーが確認する期限を設定しなければならない。AIモデルベンダーは、AIが人間に奉仕し続けるようにする必要があり、その逆の事態は防がなければならない。その実現は難しいが、将来的に必須だ。
生成AIモデルは説明がつかず、予測もつかない。ベンダーでさえ、内部の仕組みを全て理解しているわけではない。規制当局は最低限、モデルのトレーニングに使われたデータに関する証明書を要求しなければならない。その例として、個人を特定できる情報(PII)や企業における事業計画のような機密データの使用に関する証明書が挙げられる。
フェイクニュースのようなこれらの情報は社会を分断し、公正な選挙や民主主義を損ない、個人的な被害や社会的不安、その他の問題を引き起こす。規制当局は、AIモデルベンダーが、自社システムで使用されるコンテンツやソフトウェアなどのデジタル資産の出どころを、標準化を推進する団体の規格を使用して認証する期限を設定しなければならない。例えば、C2PA、Scitt.io、IETFなどの標準規格が参考になる。
生成AIシステムは一貫して、もっともらしいが不正確な回答を出力する。これはハルシネーション(幻覚)と呼ばれる。規制当局は、ユーザーが、例えば架空の事実と本当の事実を見分けられるように、AIベンダーに生成AIが生成した出力の正確性や適切性、安全性をユーザーが評価するための機能を提供させる必要がある。その中には、回答の生成に使用される情報の出どころをタグ付けさせることが含まれる。
現在のところ、機密の、または保護された企業情報に関する検証が可能なデータガバナンスやデータ保護の保証はない。規制当局は、AIベンダーに以下の2つの実施を強制する必要がある:
・モデル操作に使用される全ての著作物を特定するための対策(EU AI法は、こうしたルールを提案している)
・個人データがモデル環境に保持されないという契約上の保証などを求めるあらゆる関係者へのプライバシーや機密の保証
AIベンダーは、ユーザーが定義した偏った出力(ユーザーによって提供される)を検出し、関連する規制および法的要件に合った方法で偏りを軽減できる対策を講じる必要がある。
規制当局は、ユーザーが自分のデータやコンテンツについて、ホストされている基盤モデルのトレーニングに使われることをオプトアウト(拒否)できるようにする必要がある。こうしたデータやコンテンツには、PIIや、ユーザーが作成する画像、ソフトウェア、楽曲、レシピなどのコンテンツが含まれる。
生成AIは大量の電力を使用する。規制当局はAIベンダーに電力消費を削減し、高品質の再生可能エネルギーを利用して、サステナビリティ目標への影響を軽減するよう促すルールを施行する必要がある。
前述した新しい国際規制機関が他の国際機関と協力し、AIを用いて標的に被害を与える悪意ある攻撃者に関する脅威インテリジェンスを共有する、グローバルな法執行機関を設立する必要がある。この法執行機関は、脅威が検知された場合に攻撃者の手口が通用する余地をなくし、攻撃を無力化する権限を持たなければならない。
以上のように、規制当局は、ほとんどどの脅威についても軽減するために現時点で実践的な対策を講じられる。われわれは行動する必要がある。しかも、早急にだ。
出典:Regulating AI requires International Cooperation and Pragmatic Actions(Gartner Blog Network)
※「Gartner Blog Network」は、Gartnerのアナリストが自身のアイデアを試し、リサーチを前進させるための場として提供しています。Gartnerのアナリストが同サイトに投稿するコンテンツは、Gartnerの標準的な編集レビューを受けていません。ブログポストにおける全てのコメントや意見は投稿者自身のものであり、Gartnerおよびその経営陣の考え方を代弁するものではありません。
Distinguished VP Analyst
Copyright © ITmedia, Inc. All Rights Reserved.