AI規制に必要な国際協調と実践的行動とはGartner Insights Pickup(311)

AI(人工知能)の普及が加速し、早々にAI規制の枠組みやインフラの確立が求められている。本稿では、国際規制機関が対処すべきAIの脅威をカテゴリー別に3つ紹介する。

» 2023年07月21日 05時00分 公開
[Avivah Litan, Gartner]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

ガートナーの米国本社発のオフィシャルサイト「Insights」や、アナリストらのブログサイト「Gartner Blog Network」などから、@IT編集部が独自の視点で“読むべき記事”をピックアップして翻訳。グローバルのITトレンドを先取りし「今、何が起きているのか、起きようとしているのか」を展望する。

 米上院で2023年5月16日(米国時間)に開かれたAI(人工知能)規制に関する公聴会は有意義なものとなり、AIを規制する必要性について超党派の合意が形成された。

 だが、そこから何かが生まれるとは期待しない方がいい。米国政府がAIを規制するために行ってきたことはほぼ皆無だ。議会では、関連する立法はほとんど行われていない。行政府は、AI規制に関する研究を委託し、その一部に資金を提供している。だが、AI規制の枠組みやインフラの確立において、欧州に大きく後れを取っている。

 これまでの米国政府の新技術に対する規制実績からすれば、こうなるのも無理はない。ソーシャルメディアや暗号通貨業界に対する規制の失敗は明白だ。これらの分野では、解決策は比較的明確だった。だが、数百万人の米国市民が取り返しのつかない被害を受けた。

 AIの場合、ジェフリー・ヒントン(Geoffrey Hinton)氏やマックス・テグマーク(Max Tegmark)氏といったAIの専門家でさえ、人類存亡の脅威に対する有効な解決策を見いだせずに苦慮している。AIが人間より賢くなれば、人間は不要で邪魔な存在と考えるようになる可能性が高い。それでも、いずれはAIの専門家が、有効な解決策を考え出す可能性もある。

脅威を熟知しているOpenAIのサム・アルトマン(Sam Altman)CEOのようなAI技術企業の経営者が、当局に規制を求めるのは理にかなっている

 OpenAIは、生成AI(ジェネレーティブAI)の強力な基盤モデルを管理する数社のうちの1社だ。これらの営利企業は互いに、そして中国の企業や政府機関と競合している。AIの安全対策は、全てのベンダーによって実施される場合にのみ効果を発揮する。米国が規制するシステムが安全で、中国のものが安全でなければ意味がない。

 最も現実的な対策は、AIベンダーに対する強制力を持つ国際的な規制機関を設立することだ。

 規制の対象となり、営業許可を得る必要がある企業の審査基準を策定する必要があるが、まず「GPT-4」のようなAI基盤モデルをホストするベンダーから始めるべきだ。

 以下では、新しい国際規制機関が早急に対処すべきAIの脅威を、3つのカテゴリー別に紹介する。脅威の軽減策も盛り込んでいる。

1.人類存亡の脅威

  • AIモデルと人間の目標の整合性

 規制当局は、生成AIモデルが人間の価値観に沿った、事前に合意された目標や指示に従うようにトレーニングされたことを、AIモデルベンダーが確認する期限を設定しなければならない。AIモデルベンダーは、AIが人間に奉仕し続けるようにする必要があり、その逆の事態は防がなければならない。その実現は難しいが、将来的に必須だ。

2.「日常に浸透するAI」の脅威

  • モデルとデータの透明性

 生成AIモデルは説明がつかず、予測もつかない。ベンダーでさえ、内部の仕組みを全て理解しているわけではない。規制当局は最低限、モデルのトレーニングに使われたデータに関する証明書を要求しなければならない。その例として、個人を特定できる情報(PII)や企業における事業計画のような機密データの使用に関する証明書が挙げられる。

  • 偽情報、不正情報、誤情報

 フェイクニュースのようなこれらの情報は社会を分断し、公正な選挙や民主主義を損ない、個人的な被害や社会的不安、その他の問題を引き起こす。規制当局は、AIモデルベンダーが、自社システムで使用されるコンテンツやソフトウェアなどのデジタル資産の出どころを、標準化を推進する団体の規格を使用して認証する期限を設定しなければならない。例えば、C2PA、Scitt.io、IETFなどの標準規格が参考になる。

  • 正確性のリスク

 生成AIシステムは一貫して、もっともらしいが不正確な回答を出力する。これはハルシネーション(幻覚)と呼ばれる。規制当局は、ユーザーが、例えば架空の事実と本当の事実を見分けられるように、AIベンダーに生成AIが生成した出力の正確性や適切性、安全性をユーザーが評価するための機能を提供させる必要がある。その中には、回答の生成に使用される情報の出どころをタグ付けさせることが含まれる。

  • 知的財産と著作権のリスク

 現在のところ、機密の、または保護された企業情報に関する検証が可能なデータガバナンスやデータ保護の保証はない。規制当局は、AIベンダーに以下の2つの実施を強制する必要がある:

・モデル操作に使用される全ての著作物を特定するための対策(EU AI法は、こうしたルールを提案している)
・個人データがモデル環境に保持されないという契約上の保証などを求めるあらゆる関係者へのプライバシーや機密の保証

  • バイアスと差別のリスク

 AIベンダーは、ユーザーが定義した偏った出力(ユーザーによって提供される)を検出し、関連する規制および法的要件に合った方法で偏りを軽減できる対策を講じる必要がある。

  • 消費者保護のリスク

 規制当局は、ユーザーが自分のデータやコンテンツについて、ホストされている基盤モデルのトレーニングに使われることをオプトアウト(拒否)できるようにする必要がある。こうしたデータやコンテンツには、PIIや、ユーザーが作成する画像、ソフトウェア、楽曲、レシピなどのコンテンツが含まれる。

  • サステナビリティ(持続可能性)リスク

 生成AIは大量の電力を使用する。規制当局はAIベンダーに電力消費を削減し、高品質の再生可能エネルギーを利用して、サステナビリティ目標への影響を軽減するよう促すルールを施行する必要がある。

3.悪意ある攻撃者によるAIの悪用

  • 脅威インテリジェンスの共有と適用

 前述した新しい国際規制機関が他の国際機関と協力し、AIを用いて標的に被害を与える悪意ある攻撃者に関する脅威インテリジェンスを共有する、グローバルな法執行機関を設立する必要がある。この法執行機関は、脅威が検知された場合に攻撃者の手口が通用する余地をなくし、攻撃を無力化する権限を持たなければならない。


 以上のように、規制当局は、ほとんどどの脅威についても軽減するために現時点で実践的な対策を講じられる。われわれは行動する必要がある。しかも、早急にだ。

出典:Regulating AI requires International Cooperation and Pragmatic Actions(Gartner Blog Network)

※「Gartner Blog Network」は、Gartnerのアナリストが自身のアイデアを試し、リサーチを前進させるための場として提供しています。Gartnerのアナリストが同サイトに投稿するコンテンツは、Gartnerの標準的な編集レビューを受けていません。ブログポストにおける全てのコメントや意見は投稿者自身のものであり、Gartnerおよびその経営陣の考え方を代弁するものではありません。

筆者 Avivah Litan

Distinguished VP Analyst


Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。