AIは「無制限に開発・構築してはならない」、Microsoftが「責任あるAI基準」公開 一部機能は中止へ:顔認識サービスで「感情や年齢などを推論する機能」の提供を中止
Microsoftは同社のAIシステムの構築方法を導くフレームワーク「Microsoft Responsible AI Standard v2」(責任あるAIの基準第2版)を公開した。さまざまな社会的な課題について、AIでどのように扱うのか、Microsoftの考えを示した。同時に社会的に悪影響を与えると考えられる同社のAIサービスの提供を中止した。
Microsoftは2022年6月21日(米国時間)、同社のAIシステムの構築方法を導くフレームワーク「Microsoft Responsible AI Standard v2」(責任あるAIの基準第2版)を公開した。より優れた、より信頼できるAIの開発を目指す同社の取り組みにおける重要なステップだとしている。
Microsoftは2019年秋に、Responsible AI Standardの初版を社内向けにリリースした。これまでの責任あるAIの取り組みに加え、最新の研究や、製品での経験から学んだ重要な教訓に基づく。
今回、多分野にまたがる研究者やエンジニア、政策専門家のグループが第2版を作成した。これまで学んできたことを共有し、他の人々からのフィードバックを求め、AIに関するより良い規範と実践の構築に向けた議論に貢献するため、第2版を公開したと述べている。
製品開発の指針
MicrosoftはResponsible AI Standardについて、さまざまな社会的な課題についてのMicrosoftの考えを示したものだと説明している。
「『公平性』『信頼性と安全性』『プライバシーとセキュリティ』『包括性』『透明性』『アカウンタビリティー』(説明責任)といった永続的な価値を守り、社会からの信頼を得るには、AIシステムをどのように構築するのが最善か」という課題に向き合った「6つの基本価値」だ。
今回の基準はこれまで、AIを取り巻く状況の中で掲げられてきた抽象的な原則を超えて、具体的で実用的なガイダンスを社内チームに提供するものだとしている。
Responsible AI Standard v2の構成
Microsoftは6つの価値を、責任あるAIの基本原則と位置付けている。それぞれの価値は次のような意味を持つ。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 2019年中に顔認識技術を法律で規制すべきだ――Microsoftが見解を発表
Microsoftは、顔認識技術に関する見解を発表した。顔認証技術が急速に高度化し、成功事例が積み重なるものの、同技術が持つ潜在的な危険性に対応する必要があるとした。政府に法整備を促す一方で、6つの行動規範を制定し、2019年の第1四半期までに社内に導入する。 - 責任あるAI(Responsible AI)とは?
用語「責任あるAI」について説明。倫理的な問題やプライバシー、セキュリティーなどの潜在的なリスクに企業や組織が責任を持って取り組み、作成したAIが安全で信頼できバイアスがないことを保証すること、またはそのための指針として掲げる基本原則やプラクティスのことを指す。 - AIを利用した推薦システムを悪用し、意図的な偽情報が拡散可能 F-Secure
F-Secureは、AIを利用した推薦システムの危険性について警告を発した。「AIによる推薦」に関する実験の結果、意図的な偽情報や陰謀論の拡散が可能だった。