「説明可能なAI」に欠陥、少数派の扱いが不公平になるとMITが指摘する根拠は?:結果が誰に影響を与えるのかを考えなければならない
マサチューセッツ工科大学(MIT)の研究チームは、機械学習モデルの予測を信頼するかどうかをユーザーが判断するためによく使われる「説明モデル」には問題があることを示した。少数派を公平に扱えないという問題だ。なぜこのようなことが起きるのだろうか。
マサチューセッツ工科大学(MIT)は2022年6月1日(米国時間)、機械学習の予測を信頼するかどうか、ユーザーが判断するために用いる「説明モデル」に問題があると発表した。
機械学習の対象データとなる人々のうち、社会的に不利な立場にある人々で構成されるサブグループについては、精度が低くなる可能性があるという。
機械学習モデルは、意思決定支援に利用されることがある。例えば、「どのロースクール志願者が、司法試験に合格する可能性が高いか」をモデルが予測し、ロースクールの入試担当者がその予測結果を、(ロースクールの合格実績を高めるために)どの学生を合格させるかといった判断に役立てる場合がある。
機械学習モデルが複雑すぎて理解できない
こうした機械学習モデルは多くの場合、数百万ものパラメーターを持つ。このため、モデルがどのように予測するかについては、機械学習の利用経験がない入試担当者はもとより、研究者であっても、完全に理解することはほぼ不可能だ。
そこで研究者は、大規模なモデルを模倣した説明モデルを採用し、予測の単純な近似を作成することがある。なぜなら近似したモデルははるかに理解しやすく、ユーザーにとって、機械学習モデルによる予測を信頼するかどうかを判断するのに役立つからだ。
どうすれば予測モデルの品質を高められるのか
MITの研究チームは、広く使われている幾つかの説明モデルの公平性を調査した。その結果、これらの説明モデルが出力する近似の品質は、対象者のサブグループによって大きくばらつき、マイノリティーと位置付けられるサブグループでは、品質が著しく低下する場合が多いことを発見した。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 責任あるAI(Responsible AI)とは?
用語「責任あるAI」について説明。倫理的な問題やプライバシー、セキュリティーなどの潜在的なリスクに企業や組織が責任を持って取り組み、作成したAIが安全で信頼できバイアスがないことを保証すること、またはそのための指針として掲げる基本原則やプラクティスのことを指す。 - 公平性(Fairness、フェアネス)とは?
用語「公平性(Fairness)」について説明。機械学習モデルが不当な差別(人種差別/民族差別や、性別差別、文化差別/地域差別など)を引き起こさないように、不公平なバイアスを排除することを指す。 - 世界で進むAI規制、開発者に求められる競争力とは
正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する本連載。第4回は、AI倫理に関する世界の主要なAI法規制やガイドラインと、AI開発者に求められることについて。