生成AIで、コードを1行も書かずにロボット教育が可能に Toyota Research Institute:「大規模言語モデル」ならぬ「大規模行動モデル」の構築を目指す
トヨタ自動車の研究機関であるToyota Research Instituteは生成AI(人工知能)を使ったロボット教育用の「大規模行動モデル」(LBM)の構築に向けた新しいアプローチについて発表した。従来は難しかった「困難で器用さが求められるスキル」も教えられるようになったという。
トヨタ自動車の研究機関であるToyota Research Institute(以下、TRI)は2023年9月19日(米国時間)、生成AI(人工知能)を使ったロボット教育用の「大規模行動モデル」(LBM)の構築に向けた新しいアプローチについて発表した。
単純ではない「困難で器用さが求められるスキル」も教えられる
従来のロボット教育技術は制約が多く、非効率的で、限定的なタスクにしか適用できなかった。ロボット工学者は、多くの試行錯誤サイクルを経て、時間を費やして高度なコードを書いたり、動作をプログラムしたりする必要があった。今回発表した生成AIを使ったアプローチは、こうした課題を解決するものだ。
新しいアプローチでは、TRIのロボットは教師となる「触覚デモンストレーション」を通じて行動モデルを学び、ゴールの記述(プロンプト)と組み合わせることで“新しいスキル”として定義する。その後、AIベースの拡散ポリシーを使用して、実証されたスキルを学習するという流れだ。このプロセスによって、デモンストレーションから新しい動作を自律的に展開できるという。
この新しいアプローチを使って、液体の注ぎ方、ツールの使い方、変形可能な物体の操作など既に60以上の「困難で器用さが求められるスキル」を教えることにTRIは成功している。しかもロボットに新しいデータを提供するだけでコードは1行も書いていないという。この成功を基に、TRIは2023年末までに数百の新しいスキルを、そして2024年末までには千の新しいスキルをロボットに教える目標を立てている。
TRIのロボット研究担当副社長であるラス・テドレイク氏は「これらのロボットは、全く驚くべきタスクを実行してくれている。ほんの1年前でさえ、このレベルでさまざまな器用さが発揮できるとは予想していなかった」と述べている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- ChatGPTなどのLLMを狙う「プロンプトインジェクション攻撃」「データポイズニング攻撃」とは? NCSC
NCSCは、LLMの普及とともに「プロンプトインジェクション攻撃」や「データポイズニング攻撃」の危険性が高まっていると注意喚起した。 - 34%の組織は生成AIリスク軽減のためのセキュリティツールを活用している Gartner調査
Gartnerが発表した調査結果によると、34%の組織が生成AIに付随するリスクを軽減するために、人工知能(AI)アプリケーションセキュリティツールを既に使用しているか、導入しているという。リーダーやエグゼクティブを対象としたこの調査では、半数以上(56%)がそのようなソリューションを検討していると回答した。 - ソフトウェアインフラ市場、2027年末には約2倍の3580億ドル規模に
英国の調査会社Omdiaは、世界のソフトウェアインフラストラクチャ市場の予測を発表した。2022年末時点で、ソフトウェアインフラ市場は約1670億ドル規模であり、2027年末には市場規模が推定3580億ドルに達すると予測した。