NECが2016年11月1〜2日、東京国際フォーラムで「C&Cユーザーフォーラム&iEXSPO 2016」を開催。多くの講演の中から将棋棋士 羽生善治氏、東京大学大学院 工学系研究科 技術経営戦略学専攻 特任准教授 松尾豊氏らが登壇した特別講演「人工知能は人を超えるか?」の内容を紹介する。
NECは2016年11月1〜2日、東京・有楽町の東京国際フォーラムで「C&Cユーザーフォーラム&iEXSPO 2016」を開催した。本稿では、多くの講演の中から特別講演「人工知能は人を超えるか?」の内容を紹介する。
講演には、将棋棋士 羽生善治氏、東京大学大学院 工学系研究科 技術経営戦略学専攻 特任准教授 松尾豊氏、NHK 科学・環境番組部 ディレクター 中井暁彦氏の各氏が参加。HEART CATCH 代表取締役/プロデューサー 西村真理子氏をモデレーターにパネルディスカッションが行われた。
講演は第1部「人間を超えた人工知能」、第2部「人工知能最前線」、第3部「人間社会との共生」の3部構成で行われた。それぞれ要約してレポートする。
第1部「人間を超えた人工知能」では、羽生氏を起用したNHKスペシャル番組『天使か悪魔か 羽生善治 人工知能を探る』における、「AlphaGo(アルファ碁)」開発者、デミス・ハサビス氏と羽生氏のトーク映像を投影しつつ、「今、人工知能がどこまで人間を凌駕したのか」について話し合われた。
4歳からチェスを始めたハサビス氏と、チェスでも日本トップクラスの実力を持つ羽生氏の対談は、中井氏のお膳立てで行われたものだが、興味深い内容が展開された。
対談ではハサビス氏が開発したブロック崩しゲームを攻略するためのDeep Learning技術を使った人工知能が紹介された。「高得点を得る」という目標だけが与えられた人工知能は、最初はただ、玉を打ち返すだけだったが、次第にコツを覚え、端のブロックを崩して天井裏に玉を打ち込むという高度な技を身に付け、次々に高得点を得る様子が映し出された。
だが囲碁の場合、ブロック崩しゲームのように単純にはいかない。ハサビス氏は人工知能に、人間のように“直感”を与えることを考えた。この“直感”について羽生氏は「将棋では、たくさんの手が読めるから強くなるということはない。強くなるには、いかに読む手を少なくするか」が重要だと、明らかにした。
それでは、人間に特有の“直感”をAlphaGoは身に付けることができるのだろうか?
過去の15万局のデータをAlphaGoに学ばせる。すると、各局面で勝ちにつながるパターンを自ら見つけ出し、次の1手につながる、選択肢を絞り込んだパターンだけに集中して打ち筋を検討する。この結果、人間ならではの“直感”をついに人工知能が手に入れる様子が放映された。
ハサビス氏はこれに満足せず、人間を超える創造性を人工知能に求める。そのために、AlphaGo同士で3000万回の対局を行わせた。人間が毎日、10局打ち続けても8500年かかるこの膨大な対局により、人間がまだ考え付かない手をAlphaGoに発見させようというものだ。
「私の目指すのは何でもできる究極の人工知能。科学を急速に進歩させ、社会のあらゆる問題を解決できる」(ハサビス氏)
番組ディレクターである中井氏は、この番組への羽生氏の起用について「人工知能に関心が向いたのは2015年放送の『NHKスペシャル ネクストワールド 私たちの未来』で未来の予測をテーマとした時。Deep Learningがすごいらしいということで、そのナビゲーターとして将棋ソフトにも詳しい羽生さんに『世界中を回りますが、一緒にどうですか』と持ち掛け、快諾を得た」と明かした。
第2部「人工知能最前線」では、松尾豊氏が中心となった。
まず、松尾氏は「人工知能は約60年前から研究され、現在3回目のブームにある」とし、「これまで、ブームが加熱し期待が高まるが、しばらくして人工知能でできないこともあることが分かると、ブームが沈静化するということの繰り返しだった。人工知能には過剰な期待を抱かないでほしい」と釘を刺した。その上で「この数年、Deep Learningによって、何10年もできなかったことが急激に可能になってきた」と述べた。
「(ハサビス氏が共同ファウンダーである企業)Google DeepMindが行っているような“行動につなげる”知能は、人工知能の研究では“王道”。Deep Learningは認識、作業の上達、言語の意味理解に加え、特に画像認識の精度が急激に向上している。画像認識についていうと、2015年2月には、画像認識でコンピュータが人間を超えた歴史的出来事が起きた。2012年までは25%程度の確率で間違っていた人工知能だが、誤認率が急速に下がり、人間でも5.1%は間違う画像認識において、人工知能の誤認率は3.0%になっている。
これにより、コンピュータが“見て分かる”ようになり、ロボットが練習して上達することが可能になった。カリフォルニア大学バークレー校では、ロボットが部品を組み付ける作業を練習して上達することが実現され、ミニカーにおける自動運転も日本のベンチャー企業が実現している」(松尾氏)
さらに松尾氏は「コンピュータは言葉を理解することが可能になってきた。『言葉を理解する』とは、端的に言うと、言葉と映像/画像をつなぐことだ」とし、言葉から映像を生成する、あるいはその逆に映像から画像を生成する例として、Automated Imaging Captioning技術を紹介した。これは、絵を示すと文が出てくる。逆に文を入れると絵を描く技術。「人間が子どものころにお話を聞いて状況を思い浮かべるのと同じことだ」(松尾氏)。
シーンから言葉を思い浮かべたり、シーンから言葉を思い浮かべることを上手にやると、“翻訳”になる。「人間は“パターンの処理”と“言葉という記号の処理”を使い分けながら思考している。これは他の哺乳類と決定的に異なるところだ」(松尾氏)という。
「今までの人工知能はシーンを生成したり、理解したりすることが弱かったが、Deep Learningで可能になってきた。将棋ソフトでも、各局面でどこがいいのか、悪いのかを探る“パターンの処理”に相当するところはコンピュータはできなかったが、可能になってきた。これと普通の探索アルゴリズムをうまく組み合わせることで非常に強い1手が打てるようになってきた」と松尾氏はDeep Learningの現状について解説した。
Copyright © ITmedia, Inc. All Rights Reserved.