将棋や囲碁の対戦でコンピュータが勝利するなど、人工知能(AI)に関する話題が新聞をにぎわせている。さまざまな分野での応用が発表され、1980年代に続く、AIブームを巻き起こしている。はてさて、今度のAIブームはモノになるのだろうか?
最近、「人工知能」「AI(Artificial Intelligence)」という言葉を読んだり聞いたりしない日はない感じである。直接、人工知能ネタではない産業関連記事を読んでいても、何かにつけては「人工知能で」と裏でAIを使って何かを解決している趣旨の説明が書かれていることがままある。ヒト、モノ、カネが集まってきている兆候も半端ではない。まさに「次の成長分野」として世界的に目星が付けられている感じだ。
それでいて「人工知能で」の先の説明はないも同然のことが多い。説明を始めると長くなるし、どうせ分からないだろうから説明省略ということなのかもしれない。人工知能といえば取りあえずすごいらしいということで、今のところは納得してもらえるだろうという感じだ。
「AI」という言葉を「IT」と置き換えて、一昔以上前のITバブルのころが思い出されるのは筆者だけだろうか。猫も杓子も「IT」「IT」と言っていたあの時代だ。まぁ、ITという言葉もどこからどこまでがITなのか線引きが難しい言葉なのだが、定着して久しい。そして今では「IT」「IT」と唱えていればそれで済む話ではなく、ITの内容が問われるようになっている。それだけ成熟してきたということかもしれない。
きっとAIもそのような道筋を通るのだろうが、今のところ多くの人は内容には深く踏み込めていないように思われる。しかしAIの場合、具体的に「踏み込んでいく」過程でのつかみどころのなさはIT以上ではないかと予想している。
ご存じの通り、AIの歴史は古い。ジョン・マッカーシー(John McCarthy)先生のLISPは、コンピュータの黎明期の1958年に作られた「2番目に古い」言語プロセッサである。古典的なAI研究を支えたが、既に還暦(60歳)に近い。いまだに好きな人はとても好きだが、一般的に普及したとは言いにくいものでもある。
だいたい鉄腕アトム世代の日本の子供(今では子供ではないが)は、コンピュータなどとは言わず「電子頭脳」などと呼んでいた。そのころはコンピュータそのものが人工の「頭脳」のようなものだと理解されていたわけだ。どうも機械が計算するということ自体が今で言う人工知能的なものと受け止められていたフシもある。今じゃ機械が計算しても誰も驚かない(というより人間が計算できなくなって久しい)。
どうも「人工知能」として受け入れられる概念は実は時代によって変遷してきているような気がする。調べると実際そういうことをおっしゃっていた偉い先生もいるみたいである。その時代時代で、人間の方がよくできると思われていたことをコンピュータにやらせようという研究がAIであって、普通にコンピュータが人間よりよくできるようになってしまえばAIでなくなる、ということだ。筆者も同感。
さて昨今のAIブーム(ブームと言ってよいだろう)の中心は、「ディープラーニング」である。ディープラーニングもまた、戦前にさかのぼる脳の研究を発端とした長い歴史の先に成立してきたのはご存じの通りである。先行研究には不遇の時代もあったわけだが、ここ数年、急速な盛り上がりを見せ、この間の囲碁の勝負でそれは決定的となったと言ってよいだろう(ITmediaニュース「囲碁AI『AlphaGo』勝利は『衝撃的な結果』『棋士になって1番ショック』」参照のこと)。
機械学習分野でいろいろあった先行する他の方法をほぼ吹き飛ばし、「ディープラーニングやらなければ乗り遅れる」という雰囲気にまでなってきた。ここ何年間か、3Dプリンタやドローンなどと「次の成長」のキーになる技術としてもてはやされるものが次々と出てきたが、多分市場の広がりと大きさではAI、その中でもディープラーニングが一番期待されているのではないだろうか。
それでいていろいろあるAIの中でも、捉えどころが難しい存在がディープラーニングである。ディープラーニングを試してみた人は、みんなお分かりだと思うが、ある意味何にでも使えそうだが、「どうやって」「どう使う」のか明らかというわけでもない。なかでも画像の識別への応用は比較的分かりやすく、効果も上がっているのだが、いざなぜそうなるのか知りたいとか、改良したい、変更したいとなると途端に手探り状態となる。
人間はいわば外枠を決めるだけで、後の学習は機械次第。外から人間が解釈したり、介入したりするのが難しい。結局、どのようなデータをどんな前処理でどれだけ与えるのかが決め手となる。必要になってくるデータ量は膨大、その上、学習に要する計算量もまた膨大だ。そのためか、今のところ目覚ましい成果を上げている事例は、巨大なデータにアクセス可能で膨大な計算処理能力のある上流側に偏っているようにも見える。
そしてさらなる追い風になりそうなのは、時を同じくしてFinTechなどという、端的に言ってみればアルゴリズムとお金とを直結させようなどという荒業が勃興しつつある。それはそれで急に出てきたものでもないが、AI=アルゴリズム=ディープラーニングが、これと密接に結合するのは不可避であろう。それこれ考えると、当面はネットワーク世界の上流側中心で応用が急速に広がるように思われる。
その一方、実はネットワークの末端側にもディープラーニングに基づいた認識や制御が必要とされる分野は幅広くあるように思われる。「人間ならばうまくできるけれども、まだまだ機械では十分でない」という仕事は数多いからだ。
工業だけでなく、農林水産業からサービス業まで職人技が要求される仕事はいまだに多い。そういう仕事を置き換えようとAIが虎視眈々と狙っていると言っても、言い過ぎでないかもしれない。
もちろん、末端(ほぼイコールIoTといってよかろう)はセンサーやアクチュエータなどの入出力操作が中心で、学習や認識は上流側に任せるというすみ分けもあり得る。けれど、現物の認識や制御という分野では、数ミリ秒といった通信の遅れも致命的となる場合もままある。本当の末端なのかそれともエッジといわれるような途中の結節なのかは別にして、対象物に近いところにまでAI的な処理が下りてくるのは必然だと思う。
ただし下流へ行けば行くほど、データ量も演算量も小さくならざるを得ない。下流での反射神経的な瞬時の判断と局所的な学習、上流での各種統合的な高度判断と汎化された学習という具合に、複数レベルがハイブリッドになっていくことになるだろう。それゆえ、末端のノードからデータセンターに至るまで、AI、多くはディープラーニングと付き合っていかざるを得なくなるだろう。その先、もはや人間どもは要らん、となることを恐れるが……。
日本では数少ないx86プロセッサーのアーキテクト。某米国半導体メーカーで8bitと16bitの、日本のベンチャー企業でx86互換プロセッサーの設計に従事する。その後、出版社の半導体事業部などを経て、現在は某半導体メーカーでヘテロジニアス マルチコアプロセッサーを中心とした開発を行っている。
「頭脳放談」
Copyright© Digital Advantage Corp. All Rights Reserved.