検索
特集

AI/機械学習の品質保証が抱える課題に開発者はどう対応すべきか「QA4AIガイドライン」とは(2/2 ページ)

@ITは2019年11月19日、「@IT ソフトウェア品質向上セミナー 2019 冬〜不確実性が高まるDX時代のソフトウェアテスト/品質保証はどうあるべきか」を開催した。本稿では、AIプロダクト品質保証コンソーシアム 副運営委員長の石川冬樹氏の基調講演「『うちのAI大丈夫?』と言われた開発現場が慌てないための指針〜AIプロダクトと非AIプロダクト、テスト/品質保証の違いと共通点とは」の模様を要約してお伝えする。

Share
Tweet
LINE
Hatena
前のページへ |       

1つの軸としてまとめられた「QA4AIガイドライン」

 続けて石川氏は、QA4AIが2019年5月、37社の企業の協力を得てまとめた「QA4AIガイドライン」を紹介した。

 このガイドラインでは品質を確認する対象として、おかしなノイズが入っていないか、外れ値が処理されているかという観点を検証する「データ」、精度はもちろん、訓練データと違うものに対して対応できるか、ノイズを受けても動きが壊れていないかを測る「モデル」、挙動が説明できるかも含め、全体の品質を測る「システム全体」、不確実性を前提に、状況が変わったときに速やかに対応できるかを見る「プロセスアジリティ」、そして「1割は外す」ということをどう受け止めるかという「顧客による期待の高さ・考え方」という5つを想定している。


QA4AIガイドラインの全体像(1)(石川氏の講演資料から引用)

 まだ最初のバージョンではあるがこういった形で「軸」を整備し、今後も適宜アップデートしていく方針だ。並行して、「機械学習全般を同じように評価するのは難しい」ことから、特定のドメインに踏み込んだ分析も実施し、まず自動運転、産業プロセス、スマートスピーカー、生成系システムという4つのドメイン向けに成果物を作成。有志の活動をベースに、他のドメインでの活動も進んでいるという。


QA4AIガイドラインの全体像(2)(石川氏の講演資料から引用)

 「唯一の正解がなかったり、正解を用意するのが大変だったりする上に、10分の1は自然に外す」――そんなあやふやな技術に対して、単体テストのような過去のアプローチは適用できない。そこで例えば、入力値の変化に伴って想定される出力値の変化を元に、あらかじめ答え(期待値)を用意できないようなテストを実施する「メタモルフィックテスティング」や、テストをある種の生き物として捉え、テストどうしの淘汰(とうた)、進化を通して、「欲しいテストケース、テストスイート」を表すスコアを最大化するようなテストケース、テストスイートを生成する「サーチベースドテスティング」といった考え方を発展させた新しい手法が追求されているという。


メタモルフィックテスティング(石川氏の講演資料から引用)

サーチベースドテスティング(石川氏の講演資料から引用)

 最後に石川氏は、「機械学習の開発は、『やってみないと分からない』ものを開発し、やってみた結果に基づいて意思決定し、動かしていく中で監視していくという具合に、今までのシステム開発とは全然違うことを、経営層や利用者もぜひ理解し、開発者に丸投げしないでほしい。人の営みに踏み込んだシステムを作るに当たって、こうした課題は避けられない」と呼び掛け、その上で、技術的にもポリシー的にも、ともに楽しみ、突き詰めていきたいとした。

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る