用語「責任あるAI」について説明。倫理的な問題やプライバシー、セキュリティーなどの潜在的なリスクに企業や組織が責任を持って取り組み、作成したAIが安全で信頼できバイアスがないことを保証すること、またはそのための指針として掲げる基本原則やプラクティスのことを指す。
AI(人工知能)は、倫理的な問題やプライバシー、セキュリティーなどにおいて、意図せずに社会や個人に深刻な影響を与える潜在的なリスクを抱えている。責任あるAI(Responsible Artificial Intelligence)とは、そういったAIの潜在的なリスクに企業や組織が責任を持って取り組み、作成したAIが安全で信頼できバイアス(偏見/偏り)がないことを保証すること、またはそのための指針として掲げる内部ポリシー(方針)や基本原則、プラクティスのことを指す(図1)。
AIを提供する各企業/組織が、責任あるAIの基本原則を公開している。例えばマイクロソフトは、次の6つの原則を掲げている。
詳しくは、「責任ある AI の基本原則を確認する - Learn | Microsoft Docs」を参照してほしい。
ちなみに、かつてマイクロソフトは信頼されるAI(Trusted AI、Trustworthy AI)というキーワードで、「公平性(Fairness)」「説明責任(Accountability)」「透明性(Transparency)」「倫理(Ethics)」の頭文字を取ってFATEと呼ぶ4つの基本原則を公表していた。信頼されるAIやFATEなどさまざまな言葉が生まれてきたが、最近(2022年4月時点)では本稿の「責任あるAI」という用語に集約されつつある(と筆者は感じている)。
また会社や組織によって基本原則の内容は微妙に異なる。例えばグーグルはこちらのページで責任あるAIの基本原則やプラクティスを公開している(また、日本語による「責任ある AI への取り組み」のページもある)。一般的には、信頼性、公平性、プライバシー、透明性、XAI(Explainable AI:説明可能なAI)/解釈可能性(Interpretability)、アカウンタビリティーあたりが責任あるAIの基本原則に含まれていることが多いようである。
各企業/組織が責任あるAIを実現するためには、策定した責任あるAIの指針に基づいてAIシステムを開発/運用するためのガバナンス(企業自身による管理)体制の構築も求められる。ちなみに、アクセンチュアのサイトでは、「責任あるAIガバナンスガイドブック」という資料がダウンロードできるので、必要に応じて参考にしてみてほしい。
Copyright© Digital Advantage Corp. All Rights Reserved.