用語「説明可能なAI」および「解釈性」について説明。推定結果に至るプロセスを人間が説明できるようになっている機械学習モデル(=AI本体)のこと、あるいはその技術・研究分野を指す。
説明可能なAI(人工知能)(Explainable AI:XAI)とは、言葉通り、予測結果や推定結果に至るプロセスが人間によって説明可能になっている機械学習のモデル(つまりAIの本体)のこと、あるいはそれに関する技術や研究分野のことを指す。ちなみに「XAI」は、米国のDARPA(Defense Advanced Research Projects Agency:国防高等研究計画局)が主導する研究プロジェクトが発端で、社会的に広く使われるようになった用語である。
類義語として、解釈可能性(Interpretability、もしくは解釈性)という用語もある。これも言葉通り、機械学習モデルが予測、推定を行ったプロセスを、人間が解釈可能であるかどうかを指す。
なぜこれらの用語が、わざわざ存在するのだろうか。それは次のような背景があるからだ。
AI/機械学習(特にディープラーニングなどのニューラルネットワーク)によって作成されるモデルの中身は、仕組みの性質上、基本的に解釈が難しい(その参考説明はリンク先を参照)。そのため、「中身はブラックボックス(=内部が不明になっている箱のこと。入力に応じて、箱の内部で何かが行われてから、何らかの出力があるような仕掛けを持つ)」と説明されることが一般的だ。
しかし社会で実利用する段階になると、
中身が説明できないものは安心して使えない
という懸念が、AI/機械学習のプロジェクトを「発注」するクライアント企業から表明されるケースは多い。例えばAIによって自動車事故が発生した場合、説明可能なAIでないと、そもそもの原因を追究できないという問題が発生するだろう。これが、企業がAIを採用する際のリスクだと捉えられているのだ。
このような背景から、機械学習モデルを脱ブラックボックス化(つまりホワイトボックス化)する社会的なニーズが高まってきている。ここ近年(2019年8月執筆)、解釈性や説明可能性(Explainability)の研究に注目が集まり、日進月歩で発展している。
XAIの実現を目指して、さまざまな手法や技術が考案されている。
手法、技術の一例を挙げると、例えば「人間が行う説明方法を、AIに学習させる」というものがある。「これは、どういうことか」というと、従来の機械学習では人間が中身の特徴量を設計していたため(例えば賃貸物件の家賃を予測するAIなら、部屋数、風呂/トイレ別、駅からの距離、……といった感じで、モデル内部の特徴量の項目を人間が設計していたため)、人間がAIの中身を説明することは容易だった。このような説明方法そのものを、AIに学習させようという試みである。
他には例えば、モデル内部で実行されるプロセスの各ステップを可視化してインサイト(洞察)が得られるようにしたり、どの入力変数がどういった出力結果(予測、推定)に最も寄与するかを明示して説明しやすくしたり、そもそも「ブラックボックスなAIは信頼できない」とする不信自体を払拭(ふっしょく)しようとしたり……とさまざまである。
Copyright© Digital Advantage Corp. All Rights Reserved.