正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する連載。初回は、AIの普及により浮き彫りになった課題と、AI開発プロセスに内在するリスクについて。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
スマートフォン、スマートスピーカーに搭載されている音声アシスタントやお掃除ロボットなど、身の回りのさまざまなところにAI(人工知能)が導入され、私たちの生活は今まで以上に便利になっている。だが、新しい技術であるが故に、AIのブラックボックス化やAIによる差別の助長など、今までなかったような新たな課題が見えつつある。本連載では正しくAIを活用するための手法である「AI倫理」について解説する。
今回はまず、AIの普及により浮き彫りになった課題と、AI開発プロセスに内在するリスクを開発フェーズごとに整理する。
AIの普及が進むにつれ、さまざまな課題が顕在化してきている。中でも、「Black Lives Matter」運動に後押しされ、顔認証AIへの批判が集まったり、サービス停止に追いやられたりしたケースは記憶に新しい。以前から肌の色などでAIの認識精度に差があることや、黒人画像をゴリラと誤認識するなど顔認証AIに関する課題は指摘されていた。それがプライバシーやAIの公平性、透明性の問題に関する昨今の世の中の関心と相まって大きな社会問題となったのだ。
IBMやAmazon.comなどは顔認証ソフトウェアを捜査機関などに提供することを停止すると発表し、EUや米国では新たに法執行機関における顔認証AIの利用禁止の規則が制定された。誤認識を引き起こす問題は差別以外にもさまざまなものがあり、AIを使ったサービスにおいて誤認識への対応は避けることのできない問題である。
もう1点、意図していなかった結果をAIが引き起こしてしまった例として触れておきたいのが、自動運転における「トロッコ問題」だ。「ブレーキが壊れたトロッコが暴走している。線路の先には5人の人間がいて、そのままでは間違いなく5人をひき殺してしまう。トロッコの進路を変えることができて、変えた場合の線路の先には1人の人間がおり、その人間をひき殺すことになる。トロッコの運転手は進路を変えるべきか否か」という、思考実験としても有名な問題である。
この問題が注目されるのは自動運転車(ここでは完全自動の自律運転車とする)が事故をどう回避するかの議論とも関係するからだ。「唯一無二の正しい答え」はなく、人間ですら国や地域、文化、宗教などによって回答の傾向が異なることが知られている。答えのない問題や国や地域によって答えの異なる問題にAIがどのような正解を出す必要があるかということも課題である。
このような状況下で、欧州を中心としてAIの利活用に関する法律やガイドラインを整備する流れが加速している。詳しくは次回以降で解説するが、AIの利活用で生じるリスクに対する適切な対応などの安全性向上と、AI利活用の促進を通じた競争力強化を両立させるものとして位置付けられている。
ではどのようにしてAIの安全性とAIを用いた成長を両立していけばよいのか。単に精度だけを追い求めてAIを開発していくだけでなく、いかに社会に受け入れられるAIを開発していくか、その際の鍵となるのがAI倫理である。
AIの開発、利用において、あらゆる場面での意思決定の中心は人間であるべきだ。そのため人に対しての行動指針、すなわちAI倫理が必要といえる。本連載では、AI倫理に基づいて、企業が顧客や社会に対してAIの公平性や透明性を担保する方法論を「責任あるAI」と位置付けて解説する。この方法論に基づいてAIを設計、構築、展開することで、真に人間中心のAI活用を目指すことが可能となる。つまりAI倫理によって企業はAIの持つリスクを正確に理解できるようになり、かつAIが持つ潜在的リスクへの対策を行うことでAIへの信用が生まれる。その信用が形成されて初めて、人間はAIを信頼できるようになるのである。この信用と信頼こそが、AIを自社のビジネスに応用し、拡大利用するための礎になるのだ。
アクセンチュアでは責任あるAIを形作るための行動原則(TRUST)として次の5つを提唱している。
続いて、具体的に何をどう対処すればよいのか、AIの開発プロセスであるデータ収集、AI設計、AIモデル学習・評価、AIモデル運用について、ステップごとに解説していく。
Copyright © ITmedia, Inc. All Rights Reserved.