世界で進むAI規制、開発者に求められる競争力とはエンジニアが知っておくべきAI倫理(終)

正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する本連載。第4回は、AI倫理に関する世界の主要なAI法規制やガイドラインと、AI開発者に求められることについて。

» 2022年03月30日 05時00分 公開
[保科 学世, 関 大吉アクセンチュア]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 責任あるAI連載最終回の今回は、世界におけるAI利活用に関する法規制およびガイドラインについて、先行する欧米と日本における主要なものを概説し、AI開発者が気に留めておくべき点について述べたい。

国内外で広がるガイドラインや法規制

 世界中で、AIに関する法規制やガイドラインの整備が進みつつある。近年では2019年にOECD(経済協力開発機構)が「The OECD AI Principles」(OECD AI原則)を、2021年にユネスコ(国際連合教育科学文化機関)が「The Recommendations on the Ethics of Artificial Intelligence」(AI倫理に関する勧告)といったガイドラインを相次いで発表している。日本では2021年に、経済産業省から「AI原則実践のためのガバナンス・ガイドライン」が発表された。

 法的拘束力のある規制も整備されつつある。例えば米国ニューヨーク市では、独立第三機関によるAIに対するバイアス(偏見)の検査やその公表がない場合、採用候補者や社員に対する人事自動決定ツールの使用を法的に禁止した。

 このようにガイドラインや法規制の整備が進む背景には、AIが社会に与える影響に対する人々の課題意識の高まりが挙げられる。米アルファベットの子会社は2017年10月に、カナダのトロント市をスマートシティーとして再開発することを発表したが、住民の間でプライバシー侵害への反発が高まった結果、カナダ自由人権協会によるプライバシー侵害訴訟が発生した。

 現代社会においてAIは多くの人から注目されている技術であるが故に、企業はAIを適切に活用することが求められる。このような事例が発生すると企業ブランドの悪化による機会損失や収益の悪化は免れないため、AI開発者も注意が必要だ。

 一方で、このようなガイドラインや法規制は、損失を招く負の側面のみを抱えているわけではない。新たなビジネスチャンスを創出するプラスの側面も持っている。例えば、「プライバシーテック」が近年大きく注目されるようになり、プライバシー管理プラットフォームを手掛ける米ワントラスト(One Trust)は、2020年12月に3億ドル(約330億円)の資金調達に成功した。

顔認証AIと人事支援AIへの法規制が進む米国

 米国ではとりわけ、人種や社会的属性に基づく差別を助長しうるAIに対し懸念が高まっている。特に顔認証AIと採用支援AIについては、実際に法的拘束力を持った規制が敷かれつつある。例えば、中央政府機関として摘発に動いている連邦取引委員会(FTC)は、2021年4月に公式サイト内で、差別的な結果への注意、アルゴリズムの透明性と独立性の確保、データ使用や入手方法の透明性、説明責任の確保などをAI開発企業に求めている。

 しかし、米国は州によって法規制が異なるため、FTCの対応に加えて各州で法案がある。例えば、イリノイ州では企業が採用面接でAIのみを用いて採用可否を判断する場合に、面接を受ける人の人口分布情報を政府に提出し、そのデータが人種バイアスを含んでいるか否かを報告する必要がある。

 もし違反が認められると莫大(ばくだい)な違反金につながる恐れがある。Facebook(改めMeta)は顔認証技術の違反により2020年、5.5億米ドル(約605億円)の和解金支払いに応じた。FTCや各州のAI法規制には注意が必要だ。

 さて、AI開発者はこうした米国の状況から何を学ぶべきだろうか。まずは、AI開発に用いるデータの収集や選別に今後、倫理的配慮がますます求められる点が挙げられるだろう。社会的属性や顔などの生体情報を含むデータの使用を検討するときは、それが社会的差別を助長することにならないかを吟味しなければいけない。使用を決定する際は、上記のような制裁やブランド価値の低下といったリスクをはらむことを認識する必要がある。また、この種のデータには、データそのものに社会的偏見やサンプリングバイアスが入り込んでいる可能性があり、技術的観点からも注意が必要である(データ収集時のバイアスへの対処法については、本連載第2回で紹介している)。

 その他に、アルゴリズムの透明性や説明責任の保証が挙げられる。この点について欧州では徹底した規制が敷かれつつあるため、次項で紹介する。

欧州では個人の権利保護を重視

 EU(欧州連合)もまた、AI倫理策定で先行する経済圏である。AI構築に不可欠であるデータに関して、EUは2018年5月に、個人データの保護と処理に関する規制である一般データ保護規則(GDPR)の施行を開始した。だが本規制は「世界で最も厳しい」と評され、各国のあらゆる業種の企業に対し、無視できない影響を与えている。2022年2月時点でGDPRの制裁は計981件に上り、制裁金の合計は15億7000万ユーロ(約1950億円)を超えた。これらの制裁には、大企業やB2C(Business to Consumer)サービス業だけでなく、中小企業やB2B(Business to Business)サービス業を対象とした案件も一定数含まれており、どの業種も注意が必要といえる。

 なお、GDPRの内容や制裁事例については、以下に詳しく紹介されている。

 EUで注目したいAI法規制がもう1つある。2021年4月発表された包括的AI規制法案だ。この法案では、AIシステムの開発および使用を「禁止リスク、高リスク、限定的リスク、最小限のリスク」の4段階で規制しており、個人の基本的権利の保護を重視していることが分かる。「禁止リスク」には、基本的な権利を「侵害する」ようなAIの利用、例えば、法執行を目的とした公共の場でのリアルタイムかつ遠隔での生体認証などが含まれる。万が一禁止リスクに抵触した場合、3000万ユーロ(約37億円)もしくは全世界における年間取引額の6%のうち、いずれか高額な方の罰金が科される。

 一方、「高リスク」には市民の基本的権利や健康と安全を「脅かす恐れがある」AIの利活用が含まれる。これには保険などの金融サービス保険や公的サービス、健康、公益事業、運送、人事や採用、水、電気、ガスなどのインフラなど、非常に広範なサービスが対象となる。本規制案では、AIシステムが満たすべき7つの要件が示されているが、これらの要件は定義などに曖昧さが残り、また開発者側の負担が大きいことから、世界各国の企業から修正が求められている。

 このような欧州の規制状況からAI開発者が留意すべきことは、徹底した透明性と安全性の確保だろう。上記7つの要件には、AI開発におけるデータ収集やAI設計、AI学習・評価、AI運用の各プロセスにおいて、それぞれ状況を開示する要件(データガバナンス、AI技術仕様書の作成、精度、頑健性、セキュリティの確保、ログの自動記録)が含まれている。それに加え、リスク管理システムの導入やユーザーへの透明性の確保、人間によるAIの監視が求められている。日本での状況も含め、今後アルゴリズムを説明する機会は世界的に増えていくと想定される。その際、確実にアルゴリズムを説明できる人は、当のAI開発者を置いて他にはいない。AIの解釈性を上げ、入力データが出力結果へ及ぼす影響を、分かりやすく説明できる能力が求められるだろう。AIモデルの解釈性向上については、本連載第3回を参照してほしい。

 包括的AI規制法案は2021年12月に改正案が提出されており、まだ提出段階であるため今後修正される可能性もある。駐日欧州連合代表部の見解では、早ければ2022年中には発行や移行期間が始まり、2024年後半には基準の整備と最初の整合性評価の実施、そして事業者への規則の適用が始まるとみている。GDPRの制裁の厳格さから判断するに、本AI規制案の制裁も看過できない状況となることが想定されるため、引き続き動向には注目していきたい。

規制と促進の間で揺れる日本

 日本では公正取引委員会が、AIは市場に及ぼす影響が独占禁止法に違反する恐れがあるとの見解を示してきた。某グルメサイトの飲食店評価の公平性を問う訴訟では公正取引委員会が、「同サービスの一方的なアルゴリズムの改変で、特定の店舗の評価が大きく下がることなどがあれば、独占禁止法に違反する恐れもある」と、異例の意見書を裁判所に提出し、被告側はアルゴリズムを一部開示する意向を示した。今後、公正取引委員会の動向、特に独占禁止法の適用範囲について注目したい。

 データの利活用については、規制だけでなく利用促進に向けた動きもある。2022年4月から改正個人情報保護法が施行される予定だが、変更点として保有個人データの適用範囲の拡大や罰金の大幅引き上げ(法人に対し、最大1億円)などが含まれる。一方、個人情報を仮名加工して個人を特定できないようにすれば、事業者の義務が緩和されるなどの規制緩和事項も含まれる。日本では「Data Free Flow with Trust」(DFFT)を掲げていることもあり、今後データの保護規制と自由な流通の間のバランスが焦点となりそうだ。

 AI開発者として注意すべきは、AI倫理の議論で比較的遅れている日本でも、アルゴリズムの開示事案が現れつつある点だろう。今後日本は先行する欧米の規制の流れを踏襲する可能性がある。これまでに述べた注意点を意識しつつ、データやアルゴリズムの透明性確保に努めていきたい。

 先に紹介した「AI原則実践のためのガバナンス・ガイドライン」には法的拘束力はないものの、企業が責任あるAIの実装に向けて7つのAI社会原則にのっとりつつ、実際にどう行動すべきかの目標が参考事例とともに提示されている。日本語で書かれ読みやすいため、興味のある方は確認してほしい。

 今回紹介した日本を取り巻く世界のAI規制の状況は、AI開発者の目には負の影響が目立つものに映ったかもしれない。しかし、規制があるからこそのビジネスチャンスもある。Appleは2017年からプライバシー保護に注目し、同意なき個人情報の追跡を不可能にする機能や、個人データの端末上での匿名化処理機能などを追加した。こうしたさまざまな取り組みが奏功し、Appleの企業価値(EV:Enterprise Value)は2022年までの5年間でおよそ4倍に上昇している。

 今後これらの規制をチャンスとして捉え、自社の強みを生かした責任あるAIを構築することが、AI開発者の競争力となるだろう。

筆者紹介

保科 学世(ほしな がくせ)

アクセンチュア ビジネス コンサルティング本部 AIグループ日本統括 兼 アクセンチュア・イノベーション・ハブ東京共同統括 マネジング・ディレクター 理学博士。

アナリティクス、AI部門の日本統括として、AI HubプラットフォームやAI Poweredサービスなどの各種開発を手掛けるとともに、アナリティクスやAI技術を活用した業務改革を数多く実現。『責任あるAI』(東洋経済新報社)はじめ著書多数。

関 大吉(せき だいきち)

アクセンチュア ビジネスコンサルティング本部AIグループ。博士(総合学術)。

日本学術振興会特別研究員(DC1)、ケンブリッジ大学応用数学理論物理学部客員研究員などを経て、現職。アクセンチュアAIセンターでリサーチ部門を担当し、京都大学との社会課題解決に向けたAI開発協業やAI倫理の取り組みなどを手掛ける。


特集:AIを使う人、作る人に知ってほしい 「AI倫理」との付き合い方

システムやサービスにAI(人工知能)を活用することが珍しくなくなった昨今、AIが引き起こす倫理的な問題もまた身近なものとなった。すでに欧米諸国ではAI倫理に関する法整備も進んでおり、日本国内にもその影響が及ぶことは想像に難くない。本特集ではそんなAI倫理について「AI倫理とはどういうものなのか」といった初歩的なテーマから「AI倫理に関してエンジニアは何を知っておくべきなのか」「AI倫理の観点から見たAI開発プロセスにおけるリスクとその対処法とは何か」といった実践的なテーマまで、深堀りして解説する。



参考文献

FTC, Aiming for truth, fairness, and equity in your company’s use of AI, 2021

National Conference of State Legislatures, Legislation Related to Artificial Intelligence, 2022

EU MAG, 信頼できるAI利用を促進〜世界に先駆けて提案されたEUの規制枠組み〜, 2021年8月

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

4AI by @IT - AIを作り、動かし、守り、生かす
Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。