ロームが発表したエッジAIデバイスがちょっと興味深い。推論だけでなく、学習もローカルのデバイスで行うという。ターゲットが「故障予兆検知」というのも面白い。故障予兆検知の可能性や、デバイスで学習を行うメリットについて考えてみた。クラウド分野が海外に抑えられている昨今、エッジAIは日本の最後の砦(とりで)かも……。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
2022年10月18日から21日は、「CEATEC 2022」が開催されるので、それ向けの直前のプレスリリースだと思う。ロームが2022年9月末に「オンデバイス学習AIチップ」というものを発表した(ロームのプレスリリース「クラウドサーバー不要、現場でリアルタイムの故障予知を実現する、数10mW超低消費電力のオンデバイス学習AIチップを開発」)。
AI(人工知能)チップはいろいろある中で、このロームのチップが「新しさ」を主張するのはエンドポイント(末端)で推論だけでなく学習も可能にした、という点だ。エンドポイントでの学習処理というものには少し関心があったので、この機会に考えをまとめてみたい。
猫も杓子(しゃくし)も「AIを使っています」と言いながら、説明はAIの2文字で済ませてしまう風潮には釈然としないものがある。
しかし今回のチップの方向性は明らかである。「AI本流」というべきニューラルネットワーク分野だ。そして画像認識などの代表的な応用分野に使うわけではなく、ターゲットとしているアプリケーションは「故障予兆検知」だ。
AI以前ならベテランのエンジニアが、振動(異音など)、電流値、温度、何かの色など五感を働かせて異常を見つけて対処していたことを、AI搭載のマイコンシステムに見張りを任せようというのだ。
「地味な分野」と言うなかれ。「つまらない部品の故障」でもインフラ設備に予期せぬ故障が起きれば、大きな影響が発生するのは、鉄道や電力などのインフラを考えれば想像がつく。製造業などでは利益にも直結する。年間売り上げ300億円の工場が1日止まるだけで、1億円に近い売り上げが減る、というリスク計算も想定できる。
しかし、確率でなく直接そろばんをはじくこともできるのが、部品の交換頻度である。故障しないギリギリまで部品を使うことができれば、交換の頻度を減らせる、つまりは部品代が浮くという計算だ。
高価な部品でも故障時の影響の大きさを考えて、ある期間使用したら予防的に交換する、といったことをしていた場合を考えてみよう。故障寸前まで使えるのならば、使用期間が延びた分だけもうけになる道理だ。監視用のシステムがそのもうけと比べて十分安ければ、導入の動機になり得る。
ニューラルネットワークの計算量、特に学習時の負荷の重さは、みなさんご存じの通り大変重たいものだ。また、多数の末端装置から収集される大量の個体の大量データを総合して処理するのもサーバ側でないとできない。
そこで、学習はクラウド上のサーバにお任せするのが一般的だ。サーバはGPUやAI専用のアクセラレータなどを搭載し、メモリ量も多いのでそのような学習処理に向く。
ただし、クラウド処理の問題点はレスポンスの遅さである。制御しづらい通信遅延が発生するからだ。スマートフォン(スマホ)で写真を撮ってクラウドで処理して結果を送り返してもらうのに秒単位で時間がかかってもクリティカルではないが(いらいらする程度だが)、機械相手の制御の場合、秒単位の遅延は死命を制するといってよい。正常な停止処理を行う前に故障して、ひどいことになる可能性もある。
そこで、クイックなレスポンスを得るためになるべく末端に近いところに推論とその結果を受けての制御を行わせたいわけだ。エッジと呼ばれるIoTネットワークの末端とサーバの中間で制御する場合や、末端のセンサーデバイスで制御する場合は、学習結果をサーバからもらって、推論のみ行うことが主流だ。
ただ、学習はクラウド上というのが不便なこともある。それぞれの末端デバイスの固有な状況、個体差が大きく、変動パターンが変化していくような場合だ。まさに故障検知などに適合するのだと思われる。このような場合には個体ごとに学習して即座に反映できるような仕組みが確かに向きそうだ。
Copyright© Digital Advantage Corp. All Rights Reserved.