High-Degrees-of-Freedom Dynamic Neural Fields for Robot Self-Modeling and Motion Planning

要約

ロボットの自己モデルは、古典的な幾何学的運動学モデルが存在しない場合の動作計画タスクに使用できる、ロボットの物理的形態のタスクに依存しない表現です。
特に、後者の設計が難しい場合、またはロボットの運動学が予想外に変化する場合、人間を必要としない自己モデリングは真の自律エージェントに必要な機能です。
この研究では、ニューラル フィールドを活用して、カメラのポーズと構成で注釈が付けられた 2D 画像のみから学習したニューラル暗黙的クエリ モデルとしてロボットがその運動学を自己モデル化できるようにします。
これにより、深度画像やジオメトリの知識に依存していた既存のアプローチよりも大幅に高い適用性が可能になります。
この目的を達成するために、カリキュラム データ サンプリング戦略と並行して、高い自由度 (DOF) を条件とした動的なオブジェクト中心のシーン向けの新しいエンコーダー ベースのニューラル密度フィールド アーキテクチャを提案します。
7-DOF ロボット テスト設定では、学習された自己モデルは、ロボットのワークスペース寸法の 2% の面取り L2 距離を達成します。
下流アプリケーションの例として、動作計画タスクに関するこのモデルの機能を実証します。

要約(オリジナル)

A robot self-model is a task-agnostic representation of the robot’s physical morphology that can be used for motion planning tasks in the absence of a classical geometric kinematic model. In particular, when the latter is hard to engineer or the robot’s kinematics change unexpectedly, human-free self-modeling is a necessary feature of truly autonomous agents. In this work, we leverage neural fields to allow a robot to self-model its kinematics as a neural-implicit query model learned only from 2D images annotated with camera poses and configurations. This enables significantly greater applicability than existing approaches which have been dependent on depth images or geometry knowledge. To this end, alongside a curricular data sampling strategy, we propose a new encoder-based neural density field architecture for dynamic object-centric scenes conditioned on high numbers of degrees of freedom (DOFs). In a 7-DOF robot test setup, the learned self-model achieves a Chamfer-L2 distance of 2% of the robot’s workspace dimension. We demonstrate the capabilities of this model on motion planning tasks as an exemplary downstream application.

arxiv情報

著者 Lennart Schulze,Hod Lipson
発行日 2024-04-19 03:48:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク