Guided Decoding for Robot On-line Motion Generation and Adaption

要約

我々は、障害物や新たな経由点にオンラインで適応できる複雑な設定において、自由度の高いロボットアームのための新しいモーション生成アプローチを提案します。
デモンストレーションから学習することで、ロボットがデモンストレーションされた軌跡から学習して一般化できるようにすることで、新しいタスクへの迅速な適応が促進され、蓄積された専門知識の活用が最適化されます。
私たちは、デモンストレーションとして使用されるシミュレートされた軌跡の大規模なデータセット上で、条件付き変分オートエンコーダーに基づくトランスフォーマー アーキテクチャをトレーニングします。
私たちのアーキテクチャは、これらのデモンストレーションから重要なモーション生成スキルを学習し、それらを補助的なタスクに合わせて適応させることができます。
さらに、私たちのアプローチは自動回帰モーション生成を実装し、たとえば経由点や速度と加速度の制約の導入または変更などのリアルタイムの適応を可能にします。
ビーム探索を使用して、モーション ジェネレーターをさらに適応させて障害物を回避する方法を提案します。
私たちのモデルがさまざまな初期点と目標点からモーションを生成することに成功し、さまざまなロボット プラットフォーム間で複雑なタスクをナビゲートする軌道を生成できることを示します。

要約(オリジナル)

We present a novel motion generation approach for robot arms, with high degrees of freedom, in complex settings that can adapt online to obstacles or new via points. Learning from Demonstration facilitates rapid adaptation to new tasks and optimizes the utilization of accumulated expertise by allowing robots to learn and generalize from demonstrated trajectories. We train a transformer architecture, based on conditional variational autoencoder, on a large dataset of simulated trajectories used as demonstrations. Our architecture learns essential motion generation skills from these demonstrations and is able to adapt them to meet auxiliary tasks. Additionally, our approach implements auto-regressive motion generation to enable real-time adaptations, as, for example, introducing or changing via-points, and velocity and acceleration constraints. Using beam search, we present a method for further adaption of our motion generator to avoid obstacles. We show that our model successfully generates motion from different initial and target points and that is capable of generating trajectories that navigate complex tasks across different robotic platforms.

arxiv情報

著者 Nutan Chen,Botond Cseke,Elie Aljalbout,Alexandros Paraschos,Marvin Alles,Patrick van der Smagt
発行日 2024-10-11 07:57:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク