ソフトバンクが感情を認識するロボット「Pepper」を発表。このPepperは、感情を認識したり、開発をオープン化したりとこれまでのロボットとは違っているようだ。
ソフトバンクが感情を認識するロボット「Pepper」を発表したことは、テレビを始めとする各種媒体で報じられているからご存じであろうかと思う(ソフトバンクのニュースリリース「ソフトバンクモバイルとアルデバラン、世界初の感情認識パーソナルロボット「Pepper」を発表)。携帯電話キャリアであるソフトバンクモバイルがロボットを2015年2月にも発売するという。「働くロボット」を念頭にしていると、一瞬意外な感じもするが、全体的な「癒し系」のデザイン、そしてちょっと取って付けた感じの漂う胸に付いているタブレット的なディスプレイを見れば、「いかにもソフトバンク」でそれほど違和感もないだろう。なんとなく、タブレット端末に手足を付けてみました、という感じである。
今まで、いろいろ「癒し系」ロボットの製品はあったし、話題を集めたりしてきた。パロ(大和ハウス工業のアザラシの赤ちゃん型のロボット)とかパルロ(富士ソフトの介護支援ロボット)とか、ロボットといえるものから、ほとんど玩具同然のレベルのものまでいろいろである。どこのロボットも最低一度はテレビに登場してきたのではないかという気がする。どうもテレビ番組の制作スタッフはロボット好き、というよりか、多分日本人の多くがロボット好きで話題になりやすいからだろう。その割に「癒し系」ロボット市場は広がっているとはいい難い。その最大の蹉跌がソニーの「AIBO(アイボ)」だろう。
当然、そんな市場を分析した上で、ソフトバンクは「今」というタイミングで「従来とはコンセプト」を変えてロボットを出してきたはずである。従来とは何が違うのか? ニュースリリースを読んでいる限り、3点に集約できるように思う。1つは「感情」というものの取り扱いであり、もう1つは開発のオープン化、そして最後の1つは少々恐ろしいところにある。
まず、「感情」認識について考えよう。「感情」のあるロボット的な報道もあったが、正確にいえば「感情認識」機能を搭載したロボットということになる。向かい合う人間の感情を理解(そんなにうまくいくわけではないが)して反応が変わる、ということになる。人間同士のコミュニケーションでは「感情」の認識が重要なことは、説明するまでもないだろう。大体の人は、目の前の相手や電話の向こうの相手が、怒っているのか、喜んでいるのか、認識した上でコミュニケーションをとっている。「感情」がコミュニケーションのかなりを占めているのは明らかなわけだ。
当然、感情を測定するという技術にも古い歴史がある。最も古い世代でいえば、嘘発見器といわれることの多い「ポリグラフ」がある。人間の心の中は、呼吸、脈拍、血圧、皮膚の電気伝導度、脳波などの生理的測定からある程度推し測れる、という考え方である。それは正しいし、また、深呼吸すると、動転していた気持ちが落ち着くといった逆方向の効果もあって、生理現象と心の関係はそれはそれで興味が尽きないのであるが、その測定をロボットや携帯電話にやらせるには向かない。今のところ相手の人間にセンサーを取りつけないと測定できないからだ。
その点便利なのが、顔画像と音声である。今回のソフトバンクのロボットもこの2つを入力として感情認識を行っているようだ。今や、自撮方向のイメージセンサーとマイクロフォンは、あまねく携帯デバイスに普及している。そしてカメラが顔を認識してそこにピントを合わせたり、顔に合わせて色調を調整したりする技術も普通である。もちろん、音声の信号処理がなければ携帯電話などできない。そこを一歩進めて、顔の表情、音声の周波数成分、アクセントなどの各種パラメーターから感情を推し測るというのは技術の進化からいえば、必然の方向といえるだろう。いまだ、感情の「絶対測定」のような技術はないけれども、普段、人間は、相手の表情を読んだり、声色を聞いたりして、相手の感情を推し測って暮らしているのだから、画像データと音声データを解析することで同様の行為が行えない理由はないのである。
この辺りの技術にも短くない歴史がある。ちょっと思い出すのは、NECなどが発表した「言花(KOTONOHA)」という装置だ。端末が音声から「測定」した感情を、遠方の端末に送信して光の色で表現するというデバイスだ。すでに発表から8年くらい過ぎている。ただし、光の色で表現するというのは、普段の人間同士のコミュニケーションからしてあまり受け入れられなかったようだ。それに比べると、人型のロボットで表現するというソフトバンクの方向性は正しいように思える。
もう1つは開発のオープン化であろう。そこに切り込もうとしていることは、ソフトバンクの大きな挑戦であろう。ロボットに興味を持つ人は多い。スマホやタブレット、またWebベースやゲーミングでプログラミングしている人もまた多い。けれど、ロボットのプログラミングまでやる人は多くはない。なんといってロボットを取り扱うときに知らねばならないことが多岐にわたるからである。何せロボットは「機械」なので、端的にいえば、その制御には機械工学的知識、特に「制御工学」の知識が要ることが多い。制御工学の授業をとれば分かるが、物理現象に対する微分方程式を立てるところから始まって、ラプラス変換、そして伝達関数といった「複素数領域」での議論が続く。ロボットに行き着く前の、その辺で脱落した人は多いのではないだろうか。
ところが機械系の知識だけでもダメで、電気電子系の知識も要る。それも「0」「1」のデジタルだけでは駄目で、モーター制御(パワー系)の世界と、周囲の現実世界を知るためのセンシング(アナログ系が多い)が含まれる。現代的なモーター制御は近年技術の進歩が激しい領域でもある。 そういう難しい部分を、SDKの奥の方に押し込めてしまって、「誰でも」プログラムできるようにしようという話である。Python(か、普通のC言語)でプログラミングできるということであるから、これは楽チンだ。これだけで19万8000円はたいて買いたくなってくる人がいるかもしれない。
さて、最後のちょっと恐ろしいけれど魅力的な部分は、携帯電話のキャリアとして極めて当然な、ネットワークへの接続という部分が入口である。当初、それは、リモートメンテナンスなどの経路として使われるようだ。それだけなら、何の変哲もない。しかし、そこで「クラウド」に集められる多数のロボット君からアップされる「ビッグデータ」に対して、「機械学習」をかけていくことを考えてみるといい。近年、「機械学習」の技術の進化は急速だ。ロボットは1台1台ではなく、全台数で1つ的に進歩を果たす可能性がある。まさに、SF的な進化が起こるのかもしれない。まぁ、それだけの台数が売れ、どこかのロボットのように打ち切りにならなければの話であるが。ワシも1台購入するか? しょぼくれオヤジには買えない値段か。
日本では数少ないx86プロセッサーのアーキテクト。某米国半導体メーカーで8bitと16bitの、日本のベンチャー企業でx86互換プロセッサーの設計に従事する。その後、出版社の半導体事業部などを経て、現在は某半導体メーカーでヘテロジニアス マルチコアプロセッサーを中心とした開発を行っている。
「頭脳放談」
Copyright© Digital Advantage Corp. All Rights Reserved.