責任あるAI(Responsible AI)とは?:AI・機械学習の用語辞典
用語「責任あるAI」について説明。倫理的な問題やプライバシー、セキュリティーなどの潜在的なリスクに企業や組織が責任を持って取り組み、作成したAIが安全で信頼できバイアスがないことを保証すること、またはそのための指針として掲げる基本原則やプラクティスのことを指す。
用語解説
AI(人工知能)は、倫理的な問題やプライバシー、セキュリティーなどにおいて、意図せずに社会や個人に深刻な影響を与える潜在的なリスクを抱えている。責任あるAI(Responsible Artificial Intelligence)とは、そういったAIの潜在的なリスクに企業や組織が責任を持って取り組み、作成したAIが安全で信頼できバイアス(偏見/偏り)がないことを保証すること、またはそのための指針として掲げる内部ポリシー(方針)や基本原則、プラクティスのことを指す(図1)。
AIを提供する各企業/組織が、責任あるAIの基本原則を公開している。例えばマイクロソフトは、次の6つの原則を掲げている。
- 公平性(Fairness): AI/機械学習モデルが不当な差別(人種差別/民族差別や、性別差別、文化差別/地域差別など)を引き起こさないように、不公平なバイアスを排除すること
- 信頼性(Reliability)と安全性(Safety): 予期しない状態に安全に対処し、有害な操作も排除できること
- プライバシー(Privacy)とセキュリティ(Security): 個人情報などの保護や、ビジネス情報のセキュリティーの保護
- 包括性(Inclusiveness): 誤って一部のユーザーを除外することなく、全ての人にAI技術の利点がもたらされるよう配慮すること
- 透明性(Transparency): AIシステムのプロセスや内容が誰にでもはっきりと分かるようになっていること、またはそのような状態にすること
- アカウンタビリティー(Accountability): ガバナンスと倫理の観点で、AIシステムの設計/実装の情報開示から結果/決定の説明までを行い、利害関係者に納得してもらう責任
詳しくは、「責任ある AI の基本原則を確認する - Learn | Microsoft Docs」を参照してほしい。
ちなみに、かつてマイクロソフトは信頼されるAI(Trusted AI、Trustworthy AI)というキーワードで、「公平性(Fairness)」「説明責任(Accountability)」「透明性(Transparency)」「倫理(Ethics)」の頭文字を取ってFATEと呼ぶ4つの基本原則を公表していた。信頼されるAIやFATEなどさまざまな言葉が生まれてきたが、最近(2022年4月時点)では本稿の「責任あるAI」という用語に集約されつつある(と筆者は感じている)。
また会社や組織によって基本原則の内容は微妙に異なる。例えばグーグルはこちらのページで責任あるAIの基本原則やプラクティスを公開している(また、日本語による「責任ある AI への取り組み」のページもある)。一般的には、信頼性、公平性、プライバシー、透明性、XAI(Explainable AI:説明可能なAI)/解釈可能性(Interpretability)、アカウンタビリティーあたりが責任あるAIの基本原則に含まれていることが多いようである。
各企業/組織が責任あるAIを実現するためには、策定した責任あるAIの指針に基づいてAIシステムを開発/運用するためのガバナンス(企業自身による管理)体制の構築も求められる。ちなみに、アクセンチュアのサイトでは、「責任あるAIガバナンスガイドブック」という資料がダウンロードできるので、必要に応じて参考にしてみてほしい。
Copyright© Digital Advantage Corp. All Rights Reserved.