MLOps/AutoMLなどの自動化に、自然言語処理(BERTなど)、倫理問題/信頼と、2019年の「AI/機械学習」界わいの変化は止まらなかった。2020年はどう進化していくのか? 英語での情報を参考に、10個の大胆予測を行う。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
※本稿には新バージョンがあります。2021年に向けてのアップデート記事(2020年12月28日公開)はこちらです。
本連載の趣旨は、世の中に埋もれている情報を筆者独自にキュレーションすること(=情報を収集して選び、独自の付加価値を付けてまとめること)である。英語圏では、2019年12月に入り、「AI/機械学習の2020年予測」が数多く公開されている。そこで、本稿ではその内容をキュレーションし、筆者なりに10個にまとめて発表する。
参考にした記事は、以下のとおり(いずれも英語情報)。
本稿では、下記の10項目を予想した。
それではさっそく、1つ目から順に紹介していこう。なお、番号順は優先度/可能性順というわけではなく、単に説明しやすい分類/粒度順となっている。
AlphaGo(アルファ碁)が人間のプロ棋士に勝って話題になったのが2016年3月だ。それから既に3年以上の時間が経過している。2016年にディープラーニングが注目されたときは、世の中は誤解であふれていた。2018年の段階でも、特にエグゼクティブ/意思決定層のAIに対する過度な期待があった(と筆者は感じている)。それが2019年には、ディープラーニングや機械学習の実例やPoC(概念実証)を経験するうちに、思い描いていたことができないことに気付いたりしていき、AI/機械学習やデータサイエンスの実像にかなり近い理解ができてきている(と筆者は感じている)。この流れは、2019年10月31日にガートナーが発表した「日本におけるテクノロジのハイプ・サイクル:2019年」にも表現されている(図1)。
図1を見ると、「人工知能」は「『過度な期待』のピーク期」から「幻滅期」に移行した、となっている。2020年はこの流れがさらに進み、AI/機械学習やデータサイエンスの理解が多くの人の中でより深まるだろう。その恩恵として、現実に即した、地に足のついた実例が増えていき、より高度で適切なAI活用が進んでいくと予測している。そして2021年に向けて、「AIファースト」アプローチを採用する企業が徐々に増えていくだろう。この流れに一般的なITエンジニア(ソフトウェア開発者やWeb開発者など)も影響を受け、徐々にAI・機械学習に触れたり学んだりする機会がいや応なく増えていく。
2019年時点では、機械学習エンジニアとデータサイエンティストは名前こそ違うが、そこまで明確に区別されていない(と筆者は感じている)。しかし、学術研究/調査において数学や統計学などの科学知識面から機械学習に関わる「データサイエンティスト」と、大規模システム開発やインフラ構築などのIT分野の技術面から機械学習に関わる「機械学習エンジニア」は、本質的に役割が異なるはずである。ちなみに、@IT/Deep Insiderは機械学習エンジニア向けの情報発信を意識しており、「@IT/Deep Insiderの歩き方」という記事では図2のようなレベル感を提示している。
上記のエグゼクティブ/意思決定層の理解が深まれば、この両者が得意とするスキルセットは異なることの理解も進む。その結果、機械学習に取り組む際の役割がより適切に分担されるようになる。それぞれの専門性はさらに高まるだろう。データサイエンティストは、コンサルティング能力がより求められるようになり、よりビジネスドメインに取り組んで意志決定することが要求されるようになる。一方で、機械学習エンジニアは、最終的に製品リリースまでをスムーズに実施するプロジェクト管理能力がより強く求められるようになるだろう。この役割分担が進むことで、大規模な機械学習システムの開発事例も増えていくことになる。
上記の役割分担が進むにつれ、MLOps(機械学習基盤)体制(図3)やML(機械学習)パイプラインの構築もより重要視されるようになる。
2019年は、例えばNetflixやメルカリなど、最先端を走るIT企業がMLOpsを採用して、その手法を公開した。2020年は、さらに多くのIT企業がMLOpsを採用して、その事例が公開されていき、さらにMLOpsのノウハウが増えていくことになる。2021年に向けて、MLOpsの流行に伴い、大企業での採用時例もチラホラと出始めると予想する。それが、各企業におけるAI/機械学習プロジェクトの推進に大いに役立つことになる。
また、MLOpsに関連するツールの活用も広がる。例えば、
といった、機械学習モデルの構築〜トレーニング〜デプロイを行えるツールが存在するが、こういったツールがMLOpsを支援するツールとして実際のプロジェクトで活用されていくだろう。その一方で、「どのツールを使うべきか」という競争が生まれ、2021年に向けて競争は熾烈(しれつ)を極めていく。
2019年12月には、公平性の問題(図4)、つまり不公平なバイアスに基づき学習した機械学習モデルが不当な差別(人種差別/民族差別や、性別差別、文化差別/地域差別など)を引き起こすケースに注目が集まり、大きな議論になった。
プライバシーや偏見、人権、差別に関わる倫理的な社会問題は、2020年も引き続き、勢いを増して発生することになるだろう。その一方で、倫理問題に対処する機運は高まり、明確な規律や対処方法がさまざまな形で登場してくるはずだ。
AI/機械学習システムが社会で活用されるにつれ、そのAIを提供する企業は、透明性や信頼性、説明可能なAI(XAI:Explainable AI)/解釈可能性(図5-1)が求められるようになってきている。この傾向は、2020年も継続するだろう。
また、説明可能なAIを実現するための技術はさらに進化していくだろう。例えば2019年の時点で、DataRobotでは「どの特徴量がどれくらい結果に作用するか」を可視化することができる(図5-2)。
各クラウドプラットフォームでも、同様の「機械学習モデルの解釈可能性を示す機能」が提供され始めている。例えば、
といったツールが既に提供されており、2020年は説明可能なAI/解釈可能性の機能が充実してくる。また、その研究も盛んで、その傾向は2020年、さらに強まっていく。それに伴い、こういったツールの活用も徐々に増えていき、より一般社会にAI・機械学習を導入しやすい雰囲気が広がっていくと予想している。
Copyright© Digital Advantage Corp. All Rights Reserved.