要約
大規模言語モデル (LLM) はロボット ポリシー コードの生成に成功していますが、これまでのところ、その結果は正確な動作を必要としない高レベルのタスクに限定されています。
このようなアプローチが、接触力を考慮して推論し、厳しい成功許容範囲内で作業する必要があるタスクにどの程度うまく機能するかは未解決の問題です。
適切なアクション空間があれば、知覚エラーや把握の不正確さなどのノイズの多い状況下でも、LLM は接触が豊富で高精度のさまざまな操作タスクに対するポリシーを正常に生成できることがわかりました。
具体的には、ターゲットのポーズに到達するために必要な相互作用力と剛性の制約への準拠を含めるように、アクション空間を再パラメータ化します。
Functional Manipulation Benchmark (FMB) および NIST Task Board Benchmarks から派生したサブタスクでこのアプローチを検証します。
このアクション スペースをオブジェクトのポーズを推定するメソッドと並行して公開すると、非準拠のアクション スペースと比較して、LLM を使用したポリシー生成が 3 倍および 4 倍以上改善されます。
要約(オリジナル)
Large Language Models (LLMs) have been successful at generating robot policy code, but so far these results have been limited to high-level tasks that do not require precise movement. It is an open question how well such approaches work for tasks that require reasoning over contact forces and working within tight success tolerances. We find that, with the right action space, LLMs are capable of successfully generating policies for a variety of contact-rich and high-precision manipulation tasks, even under noisy conditions, such as perceptual errors or grasping inaccuracies. Specifically, we reparameterize the action space to include compliance with constraints on the interaction forces and stiffnesses involved in reaching a target pose. We validate this approach on subtasks derived from the Functional Manipulation Benchmark (FMB) and NIST Task Board Benchmarks. Exposing this action space alongside methods for estimating object poses improves policy generation with an LLM by greater than 3x and 4x when compared to non-compliant action spaces
arxiv情報
著者 | Kaylee Burns,Ajinkya Jain,Keegan Go,Fei Xia,Michael Stark,Stefan Schaal,Karol Hausman |
発行日 | 2024-04-09 22:47:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google