Guided Decoding for Robot Motion Generation and Adaption

要約

私たちは、障害物や経由点などを伴う複雑な設定における高自由度ロボット アームのモーション生成に取り組みます。この領域での大幅な進歩は、デモンストレーションからの学習 (LfD) をモーション生成プロセスに統合することによって達成されます。
この統合により、ロボットが実証された軌道から学習して一般化できるようにすることで、新しいタスクへの迅速な適応が促進され、蓄積された専門知識の利用が最適化されます。
シミュレートされた軌道の大規模なデータセットで変圧器アーキテクチャをトレーニングします。
このアーキテクチャは、条件付き変分オートエンコーダー トランスフォーマーに基づいており、必須のモーション生成スキルを学習し、補助的なタスクや制約を満たすようにこれらのスキルを適応させます。
当社の自動回帰アプローチにより、物理システムからのフィードバックのリアルタイム統合が可能になり、モーション生成の適応性と効率が向上します。
私たちのモデルは、初期点と目標点からモーションを生成できることを示しますが、また、障害物の回避を含む複雑なタスクをナビゲートする際に、プラットフォーム間で点を経由し、速度と加速度の制約を満たす際に軌道を適応させることもできることを示します。

要約(オリジナル)

We address motion generation for high-DoF robot arms in complex settings with obstacles, via points, etc. A significant advancement in this domain is achieved by integrating Learning from Demonstration (LfD) into the motion generation process. This integration facilitates rapid adaptation to new tasks and optimizes the utilization of accumulated expertise by allowing robots to learn and generalize from demonstrated trajectories. We train a transformer architecture on a large dataset of simulated trajectories. This architecture, based on a conditional variational autoencoder transformer, learns essential motion generation skills and adapts these to meet auxiliary tasks and constraints. Our auto-regressive approach enables real-time integration of feedback from the physical system, enhancing the adaptability and efficiency of motion generation. We show that our model can generate motion from initial and target points, but also that it can adapt trajectories in navigating complex tasks, including obstacle avoidance, via points, and meeting velocity and acceleration constraints, across platforms.

arxiv情報

著者 Nutan Chen,Elie Aljalbout,Botond Cseke,Patrick van der Smagt
発行日 2024-03-22 14:32:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク