正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する本連載。第4回は、AI倫理に関する世界の主要なAI法規制やガイドラインと、AI開発者に求められることについて。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
責任あるAI連載最終回の今回は、世界におけるAI利活用に関する法規制およびガイドラインについて、先行する欧米と日本における主要なものを概説し、AI開発者が気に留めておくべき点について述べたい。
世界中で、AIに関する法規制やガイドラインの整備が進みつつある。近年では2019年にOECD(経済協力開発機構)が「The OECD AI Principles」(OECD AI原則)を、2021年にユネスコ(国際連合教育科学文化機関)が「The Recommendations on the Ethics of Artificial Intelligence」(AI倫理に関する勧告)といったガイドラインを相次いで発表している。日本では2021年に、経済産業省から「AI原則実践のためのガバナンス・ガイドライン」が発表された。
法的拘束力のある規制も整備されつつある。例えば米国ニューヨーク市では、独立第三機関によるAIに対するバイアス(偏見)の検査やその公表がない場合、採用候補者や社員に対する人事自動決定ツールの使用を法的に禁止した。
このようにガイドラインや法規制の整備が進む背景には、AIが社会に与える影響に対する人々の課題意識の高まりが挙げられる。米アルファベットの子会社は2017年10月に、カナダのトロント市をスマートシティーとして再開発することを発表したが、住民の間でプライバシー侵害への反発が高まった結果、カナダ自由人権協会によるプライバシー侵害訴訟が発生した。
現代社会においてAIは多くの人から注目されている技術であるが故に、企業はAIを適切に活用することが求められる。このような事例が発生すると企業ブランドの悪化による機会損失や収益の悪化は免れないため、AI開発者も注意が必要だ。
一方で、このようなガイドラインや法規制は、損失を招く負の側面のみを抱えているわけではない。新たなビジネスチャンスを創出するプラスの側面も持っている。例えば、「プライバシーテック」が近年大きく注目されるようになり、プライバシー管理プラットフォームを手掛ける米ワントラスト(One Trust)は、2020年12月に3億ドル(約330億円)の資金調達に成功した。
米国ではとりわけ、人種や社会的属性に基づく差別を助長しうるAIに対し懸念が高まっている。特に顔認証AIと採用支援AIについては、実際に法的拘束力を持った規制が敷かれつつある。例えば、中央政府機関として摘発に動いている連邦取引委員会(FTC)は、2021年4月に公式サイト内で、差別的な結果への注意、アルゴリズムの透明性と独立性の確保、データ使用や入手方法の透明性、説明責任の確保などをAI開発企業に求めている。
しかし、米国は州によって法規制が異なるため、FTCの対応に加えて各州で法案がある。例えば、イリノイ州では企業が採用面接でAIのみを用いて採用可否を判断する場合に、面接を受ける人の人口分布情報を政府に提出し、そのデータが人種バイアスを含んでいるか否かを報告する必要がある。
もし違反が認められると莫大(ばくだい)な違反金につながる恐れがある。Facebook(改めMeta)は顔認証技術の違反により2020年、5.5億米ドル(約605億円)の和解金支払いに応じた。FTCや各州のAI法規制には注意が必要だ。
さて、AI開発者はこうした米国の状況から何を学ぶべきだろうか。まずは、AI開発に用いるデータの収集や選別に今後、倫理的配慮がますます求められる点が挙げられるだろう。社会的属性や顔などの生体情報を含むデータの使用を検討するときは、それが社会的差別を助長することにならないかを吟味しなければいけない。使用を決定する際は、上記のような制裁やブランド価値の低下といったリスクをはらむことを認識する必要がある。また、この種のデータには、データそのものに社会的偏見やサンプリングバイアスが入り込んでいる可能性があり、技術的観点からも注意が必要である(データ収集時のバイアスへの対処法については、本連載第2回で紹介している)。
その他に、アルゴリズムの透明性や説明責任の保証が挙げられる。この点について欧州では徹底した規制が敷かれつつあるため、次項で紹介する。
Copyright © ITmedia, Inc. All Rights Reserved.