Inverse Kinematics for Neuro-Robotic Grasping with Humanoid Embodied Agents

要約

この論文では、ユーザーがデカルト空間でスムーズなロボットの動作を迅速に設計できるようにする新しいゼロショット動作計画方法を紹介します。
ベジェ曲線ベースのデカルト プランは、神経をヒントにした逆運動学 (IK) メソッド CycleIK によって関節空間の軌道に変換されます。これにより、任意のロボット設計にスケールすることでプラットフォームの独立性が可能になります。
モーション プランナーは、人間参加型の把握シナリオで 2 台の人型ロボット NICO と NICOL の物理ハードウェア上で評価されます。
私たちのメソッドは、大規模言語モデル (LLM) を核とする具体化されたエージェントを使用して展開されます。
NICOL 用に導入された具現化エージェントを一般化し、NICO も具現化します。
エージェントは一連の個別の物理アクションを実行でき、ユーザーがさまざまなロボットに口頭で指示できるようにします。
私たちは、家庭用オブジェクトの正確な操作を可能にする把握プリミティブをそのアクション空間に提供します。
更新された CycleIK メソッドは、シミュレーションで一般的な数値 IK ソルバーや最先端の​​ニューラル IK メソッドと比較され、アルゴリズムの実行時間が非常に短い場合、評価されたすべてのメソッドと競合するか、それを上回るパフォーマンスを示すことが示されています。
把握プリミティブは NICOL ロボットと NICO ロボットの両方で評価され、各ロボットの把握成功率はそれぞれ 72% ~ 82% であると報告されています。

要約(オリジナル)

This paper introduces a novel zero-shot motion planning method that allows users to quickly design smooth robot motions in Cartesian space. A B\’ezier curve-based Cartesian plan is transformed into a joint space trajectory by our neuro-inspired inverse kinematics (IK) method CycleIK, for which we enable platform independence by scaling it to arbitrary robot designs. The motion planner is evaluated on the physical hardware of the two humanoid robots NICO and NICOL in a human-in-the-loop grasping scenario. Our method is deployed with an embodied agent that is a large language model (LLM) at its core. We generalize the embodied agent, that was introduced for NICOL, to also embody NICO. The agent can execute a discrete set of physical actions and allows the user to verbally instruct various different robots. We contribute a grasping primitive to its action space that allows for precise manipulation of household objects. The updated CycleIK method is compared to popular numerical IK solvers and state-of-the-art neural IK methods in simulation and is shown to be competitive with or outperform all evaluated methods when the algorithm runtime is very short. The grasping primitive is evaluated on both NICOL and NICO robots with a reported grasp success of 72% to 82% for each robot, respectively.

arxiv情報

著者 Jan-Gerrit Habekost,Connor Gäde,Philipp Allgeuer,Stefan Wermter
発行日 2024-11-06 21:13:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク