要約
家庭などの非構造化環境で動作するようにロボットを設計する場合、展開後に学習して動作を調整する能力がますます重要になっています。
この研究では、大規模言語モデル (LLM) である OLAF に基づく新しい学習システムを設計します。これにより、ロボットが間違いを犯したときに、「今していることをやめてください」などと言って、日常のユーザーが口頭で修正してロボットに教えることができます。
カップに近づいたほうがいいよ。』
OLAF の重要な機能は、将来間違いを繰り返さないように、言葉によるフィードバックに基づいてロボットの視覚運動神経ポリシーを更新する機能です。
これは、口頭でのコマンドや修正に従うだけで学習しない既存の LLM ベースのロボット システムとは対照的です。
私たちは、ユーザーがロボットにシミュレーションと物理ハードウェアの両方で長期の操作タスクを実行するように教える実験で設計の有効性を実証し、ポリシーの成功率が平均 20.0% 向上しました。
ビデオとその他の結果は https://ut-austin-rpl.github.io/olaf/ にあります。
要約(オリジナル)
The ability to learn and refine behavior after deployment has become ever more important for robots as we design them to operate in unstructured environments like households. In this work, we design a new learning system based on large language model (LLM), OLAF, that allows everyday users to teach a robot using verbal corrections when the robot makes mistakes, e.g., by saying ‘Stop what you’re doing. You should move closer to the cup.’ A key feature of OLAF is its ability to update the robot’s visuomotor neural policy based on the verbal feedback to avoid repeating mistakes in the future. This is in contrast to existing LLM-based robotic systems, which only follow verbal commands or corrections but not learn from them. We demonstrate the efficacy of our design in experiments where a user teaches a robot to perform long-horizon manipulation tasks both in simulation and on physical hardware, achieving on average 20.0% improvement in policy success rate. Videos and more results are at https://ut-austin-rpl.github.io/olaf/
arxiv情報
著者 | Huihan Liu,Alice Chen,Yuke Zhu,Adith Swaminathan,Andrey Kolobov,Ching-An Cheng |
発行日 | 2023-10-26 16:46:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google