AIモデル学習の評価時/オペレーション時に発生するバイアスリスク、どう対処する?:エンジニアが知っておくべきAI倫理(3)
正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する本連載。第3回は、AIモデル学習の評価時、オペレーション時のバイアスリスクへの対処法について。
前回はデータのバイアスリスクへの対処法を、具体例を交えて解説した。今回は、AIモデル学習の評価時、オペレーション時のバイアスリスクへの対処法について解説する。考え方や手法、ツールがAI開発の一助になれば幸いだ。
AIモデルの不透明さ、不可解さをどう解決するか
AIモデルにおいて、「精度は高いがなぜその出力がなされているか理解しがたい」といった問題が発生し得る。特にディープラーニングなどのAIモデルにおいて、モデルの入出力関係が解釈しづらく、ブラックボックスとなり、AIが誤った基準で判断をしているかを解釈できないケースが存在する。例えば、既存の知見と異なる判断基準が学習されているケースや、人種、民族、性別、年齢、信仰などの公平性観点から差を生むべきではない、いわゆる「センシティブ属性」がAIの判断基準に使われてしまっているというケースである。そうした問題を検知し解消するため、モデルの解釈性を向上させることが重要だ。
モデルの解釈性を向上する方法は大きく分けて2種類ある。「AIモデル自体の解釈性を向上させる方法」と「学習したモデルを解釈する方法」だ。
1.AIモデル自体の解釈性を向上させる方法
- A)条件分岐構造を持つモデル
モデル自体の解釈性を向上させるには、条件分岐構造を持つモデルが有効である場合が多い。条件分岐構造を持つモデルの代表例は決定木である。
前述の通り、解釈性の高いモデルを構築することでAIモデルが誤った判断をしているかを解釈できる。ここで、決定木の簡単な活用例を紹介する。
図1は1970年代ドイツの金融機関における融資リスクを、融資返済期間や年齢といった特徴(今回は例示のため、あえて年齢などセンシティブ属性をそのまま変数に加えている)から予測する決定木を構築した例である。
決定木は分岐ごとに条件がANDで足される構造となっている。上図を読み解くと、4つのパターンが学習されている。返済期間が11.5カ月よりも短い場合に最も低リスク(Positive)であり、11.5カ月超34.5カ月以下の場合も低リスクと予測されている。また、返済期間が34.5カ月以上と長期で、年齢が若い場合(29.5歳以下)に特に高リスク(Negative)となっており、年齢がそれよりも高い場合には低リスクとなる。このように、決定木はデータから解釈可能な条件分岐構造を可視化できる。
一方で、モデル解釈した後に、次のステップとして考慮すべきことがある。それは、「年齢が若いと融資リスクが高い」とするモデル判断が妥当か否かである。
米国の金融サービスの公平性を担保するために作られた消費者信用機会均等法(ECOA)においては、「年齢」はセンシティブ属性と定められているため、年齢が判断基準に含まれるモデルは公平性を欠いたモデルといえる。
そのため年齢の影響を除いたモデルを構築する必要がある。しかし、ここで年齢を除いてモデルを構築するだけでは、年齢に関した暗黙的な関連がモデル内部に含まれ、公平でないモデルが構築される可能性がある。そのため、前回記事で解説した公平性を配慮したAIモデル構築技術の適用が必要になるのである。
上記例のように、決定木など解釈性が高いモデルは、モデル内部でどのように判断されているかを可視化でき、モデル判断が妥当かを考察することが可能になる。そして、その結果によってはバイアスを取り除く、といった改善プロセスを取ることができるため、よりバイアスリスクを抑えたAIモデルが構築可能になるのである。
また、今回の例においては、そもそも融資リスクを予測するようなモデルを構築すべきか、という根本的な問題がある。第1回記事で解説した、AI設計時のバイアスリスクである「コンセプトの欠陥」や「確証バイアス」などを慎重に考慮しなければならない。
その他にも、条件分岐構造を持つモデルとして「RuleFit」がある。RuleFitでは、勾配ブースティングなど、複数の木で構成されるモデルで学習した条件分岐構造を用いる。学習した条件分岐構造を特徴量として表現し、線形モデルとして学習することで、各条件分岐の重要度を示すことができる手法である。
この節で紹介した決定木は機械学習ライブラリ「scikit-learn」で公開されている。またRuleFitや可視化ツールである「dtreeviz」についてもオープンソース実装が公開されている。
- B)加法的な構造を持つモデル
過度に複雑なモデルでない場合には、加法的なモデルでも解釈性を向上させることができる。加法的なモデルは、
と表される。特徴量ごとに目的変数(y)へ関係が表現されているため、各特徴量の目的変数への影響を理解しやすいモデルである。
加法的なモデルの代表例として、「線形回帰モデル」が挙げられる。線形回帰モデルは、目的変数を特徴量の重み付け線形和(fが重み係数)として表現するため、各変数の重みにより目的変数への影響度を把握できる。また、目的変数に対して適切な非線形変換(リンク関数, g)をする一般化線形モデル(Generalized Linear Models)が存在する。
その他にも、より柔軟なモデルとして、各特徴量の関係(f)についても、スプライン曲線など非線形関数を用いる「一般化加法モデル」(GAM、Generalized Additive Model)がある。
図2がGAMの学習例だ。これは、カリフォルニアにおける各地区の家の値段の中央値を予測するモデルを、平均住宅占有率(AveOccup)や築年数の中央値(HouseAge)、平均部屋数(AveRooms)などの特徴量からGAMにより構築し、それぞれの影響度(f)を可視化したものだ。青字が予測値であり、赤字は95%信頼区間である。
結果を見ると、AveOccupが高くなるほど目的変数の値が下がり、HouseAge、AveRoomsが高くなるほど信頼区間は広いもののおおむね目的変数が上昇する傾向が学習されている。
このように、加法的モデルでは各項の影響を可視化できる。GAMやGLMに関して、pyGAMにて実装が公開されている。
- C)関係性制約付きモデル
特徴量の目的変数へ与える影響が分かっている場合には、その知見を反映させたモデルを構築することで解釈性を向上させることができる。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 「AI倫理も品質の一部」な時代、AIエンジニアには何が求められるのか 有識者に聞いた(前編)
AI倫理に関してエンジニアは何を知っておくべきなのか、エンジニアには何が求められるのか、AI倫理に詳しい弁護士の古川直裕氏に話を聞いた。前編である今回は、AI倫理とは何か、エンジニアにAI倫理はどのように関わってくるかについて。 - 2022年の「AI/機械学習」はこうなる! 8大予測
2021年は、Transformerを中心に技術が発展し、日本語モデルの利用環境も整ってきた。また、ローコード/ノーコードをうたうAIサービスも登場した。2022年の「AI/機械学習」界わいはどう変わっていくのか? 幾つかの情報源を参考に、8個の予測を行う。 - アカウンタビリティ(Accountability、説明責任)とは?
用語「アカウンタビリティ(Accountability)」について説明。ガバナンスと倫理の観点で、AIシステムの設計/実装の情報開示から結果/決定の説明までを行い、利害関係者に納得してもらう責任を指す。簡単に言うと、「AIシステムの挙動に対して、誰が/何が、責任を持つのか」を明らかにすること。