なぜ今AI倫理なのか? AIがもたらす「意図しない結果」を防ぐために開発者ができることエンジニアが知っておくべきAI倫理(1)

正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する連載。初回は、AIの普及により浮き彫りになった課題と、AI開発プロセスに内在するリスクについて。

» 2022年02月16日 05時00分 公開
[保科 学世, 右衛門佐 誠アクセンチュア]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 スマートフォン、スマートスピーカーに搭載されている音声アシスタントやお掃除ロボットなど、身の回りのさまざまなところにAI(人工知能)が導入され、私たちの生活は今まで以上に便利になっている。だが、新しい技術であるが故に、AIのブラックボックス化やAIによる差別の助長など、今までなかったような新たな課題が見えつつある。本連載では正しくAIを活用するための手法である「AI倫理」について解説する。

 今回はまず、AIの普及により浮き彫りになった課題と、AI開発プロセスに内在するリスクを開発フェーズごとに整理する。

AIがもたらした「意図しない結果」 どう防ぐ?

 AIの普及が進むにつれ、さまざまな課題が顕在化してきている。中でも、「Black Lives Matter」運動に後押しされ、顔認証AIへの批判が集まったり、サービス停止に追いやられたりしたケースは記憶に新しい。以前から肌の色などでAIの認識精度に差があることや、黒人画像をゴリラと誤認識するなど顔認証AIに関する課題は指摘されていた。それがプライバシーやAIの公平性、透明性の問題に関する昨今の世の中の関心と相まって大きな社会問題となったのだ。

 IBMやAmazon.comなどは顔認証ソフトウェアを捜査機関などに提供することを停止すると発表し、EUや米国では新たに法執行機関における顔認証AIの利用禁止の規則が制定された。誤認識を引き起こす問題は差別以外にもさまざまなものがあり、AIを使ったサービスにおいて誤認識への対応は避けることのできない問題である。

 もう1点、意図していなかった結果をAIが引き起こしてしまった例として触れておきたいのが、自動運転における「トロッコ問題」だ。「ブレーキが壊れたトロッコが暴走している。線路の先には5人の人間がいて、そのままでは間違いなく5人をひき殺してしまう。トロッコの進路を変えることができて、変えた場合の線路の先には1人の人間がおり、その人間をひき殺すことになる。トロッコの運転手は進路を変えるべきか否か」という、思考実験としても有名な問題である。

 この問題が注目されるのは自動運転車(ここでは完全自動の自律運転車とする)が事故をどう回避するかの議論とも関係するからだ。「唯一無二の正しい答え」はなく、人間ですら国や地域、文化、宗教などによって回答の傾向が異なることが知られている。答えのない問題や国や地域によって答えの異なる問題にAIがどのような正解を出す必要があるかということも課題である。

 このような状況下で、欧州を中心としてAIの利活用に関する法律やガイドラインを整備する流れが加速している。詳しくは次回以降で解説するが、AIの利活用で生じるリスクに対する適切な対応などの安全性向上と、AI利活用の促進を通じた競争力強化を両立させるものとして位置付けられている。

 ではどのようにしてAIの安全性とAIを用いた成長を両立していけばよいのか。単に精度だけを追い求めてAIを開発していくだけでなく、いかに社会に受け入れられるAIを開発していくか、その際の鍵となるのがAI倫理である。

 AIの開発、利用において、あらゆる場面での意思決定の中心は人間であるべきだ。そのため人に対しての行動指針、すなわちAI倫理が必要といえる。本連載では、AI倫理に基づいて、企業が顧客や社会に対してAIの公平性や透明性を担保する方法論を「責任あるAI」と位置付けて解説する。この方法論に基づいてAIを設計、構築、展開することで、真に人間中心のAI活用を目指すことが可能となる。つまりAI倫理によって企業はAIの持つリスクを正確に理解できるようになり、かつAIが持つ潜在的リスクへの対策を行うことでAIへの信用が生まれる。その信用が形成されて初めて、人間はAIを信頼できるようになるのである。この信用と信頼こそが、AIを自社のビジネスに応用し、拡大利用するための礎になるのだ。

 アクセンチュアでは責任あるAIを形作るための行動原則(TRUST)として次の5つを提唱している。

  • T:信用できる(Trustworthy)
     AIの設計・構築時、安全性を重視して物事に誠実に向き合い、多様で広い視点を持つ、という実績を一つ一つ積み上げる
  • R:信頼できる(Reliable)
     積み上げられた信用から、将来の高度な判断とより良い意思決定への支持を集める
  • U:理解できる(Understandable)
     信用を得るためにはAIが透明性を持ち、人によって解釈可能にする
  • S:安全が保たれている(Secure)
     信用を得るためには企業や顧客の情報、データのプライバシーに配慮し、安全性を確保する
  • T:共に学びあう(Teachable)
     信用、信頼を勝ち得たAIと人間とが情報交換し、共創し、相互教育をする世界を実現して人間中心のデザインを目指す

何をどう対処すべきか? AI開発の段階ごとに解説

 続いて、具体的に何をどう対処すればよいのか、AIの開発プロセスであるデータ収集、AI設計、AIモデル学習・評価、AIモデル運用について、ステップごとに解説していく。

AI開発プロセスで発生するバイアスリスク(提供:アクセンチュア)

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。