テキサス大学オースティン校の研究チームが開発したAIエージェントは、周囲を数回ざっと見るだけで、周囲の環境の全体像を推測できる。探索活動など時間的な制約がある用途に役立つ。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
米テキサス大学オースティン校のコンピュータ科学者チームが人工知能(AI)エージェントをトレーニングし、「周囲をざっと見渡し、環境全体を推測する」方法を開発した。
こうした行動は通常、人間にしかできないが、このようなスキルは、効果的な捜索救助ロボットの開発に不可欠だ。クリステン・グローアン教授、博士候補生のサントシュ・ラマクリシュナン氏、元博士候補生(現在はカリフォルニア大学バークレー校に在籍)のディネシュ・ジャヤラマン氏を中心としたコンピュータ科学者チームは、研究論文を、2019年5月15日発行の「Science Robotics」誌で発表した。
工場など限定的な環境で、物体の認識や数量の見積もりなど、特定のタスクに対してトレーニングを重ねるのが、AIを用いた従来の視覚情報システムの通例だ。
だが、グローマン氏とラマクリシュナン氏が開発したエージェントは汎用(はんよう)的であり、幅広いタスクに利用できる視覚情報を収集する。
「われわれが目指したのは、環境に直面して得た新しい視覚情報に対して即座に対応できる能力を備えたエージェントだ。われわれのエージェントは、さまざまなタスクをうまく処理できる。なぜなら視覚世界に関する役立つパターンを学習したからだ」(グローマン氏)
科学者チームはディープラーニングを利用して、さまざまな環境を扱った約6000枚の360度画像でエージェントをトレーニングした。
今回の研究ではテキサス大学オースティン校のスーパーコンピュータを使用し、強化学習というAIアプローチと独自開発の高速トレーニング手法を利用することで、AIエージェントを約1日でトレーニングできた。
トレーニングの結果、見たことがない場面をエージェントに提示すると、ある方向を見た後、次に別の方向をざっと見るようになった。周囲の環境を数回見て、全体の20%未満の情報だけを選ぶようになった。
エージェントは、ランダムな方向を次々に見て写真を撮るのではない。ある方向に目を向けるたびに、次にどこへ目を向ければ、環境全体について最も新しい情報が追加されるかを予測して、次に目を向ける方向を決める。これによって、探索の効率が上がった。
これは、例えば初めて訪れたスーパーマーケットで、リンゴを見た近くにオレンジがあると予想し、牛乳を見つけるために別な方向に目をやる買い物客の行動に似ている。エージェントは、幾つかの方向をざっと見て得た情報を基に、全ての方向を見た場合にどう見えるかを推測し、周囲の360度画像全体を再構成する。
「人間が、過去に経験した環境に存在する規則性を考慮するように、われわれのエージェントも、周囲の全体像をつかむために、あらゆる方向に目を向けようとはしない。知覚タスクを成功させるには、どこを見て視覚情報を集めるべきかを賢明に推測することを学習するからだ」(グローマン氏)
AIエージェントを捜索救助のために利用するには、厳しい時間的制約の下で機能を果たせなければならない。例えば火災現場で被害者や炎、危険な物質などを見つけ出して消防士に伝えるようなシステムだ。
今回のシステムでは時間的な制約を改善できた。だが、課題が幾つかある。今回のAIエージェントは、1カ所に立っている人のようにふるまうことしかできない。カメラを任意の方向に向けることはできるが、新しい位置に移動することはできない。
これ以外にも自身が持つ物体をじっと見て、別の側を調べるために、物体の向きをどう変えるかを決める能力も必要だ。チームは今後、システムの開発をさらに進め、完全なモバイルロボットの実現を目指していく。
Copyright © ITmedia, Inc. All Rights Reserved.