Diffusion-EDFs: Bi-equivariant Denoising Generative Modeling on SE(3) for Visual Robotic Manipulation

要約

拡散生成モデリングは、確率論的な人間のデモンストレーションからロボット操作タスクを学習するための有望なアプローチとなっています。
この論文では、視覚的なロボット操作タスクのための新しい SE(3) 等変拡散ベースのアプローチである拡散 EDF を紹介します。
私たちが提案した方法は、1 時間未満で効果的なエンドツーエンドのトレーニングを行うために 5 ~ 10 人の人間によるデモンストレーションしか必要とせず、驚くべきデータ効率を達成していることを示します。
さらに、私たちのベンチマーク実験は、私たちのアプローチが最先端の方法と比較して優れた一般化性と堅牢性を備えていることを実証しています。
最後に、実際のハードウェア実験で方法を検証します。
プロジェクトのウェブサイト: https://sites.google.com/view/diffusion-edfs/home

要約(オリジナル)

Diffusion generative modeling has become a promising approach for learning robotic manipulation tasks from stochastic human demonstrations. In this paper, we present Diffusion-EDFs, a novel SE(3)-equivariant diffusion-based approach for visual robotic manipulation tasks. We show that our proposed method achieves remarkable data efficiency, requiring only 5 to 10 human demonstrations for effective end-to-end training in less than an hour. Furthermore, our benchmark experiments demonstrate that our approach has superior generalizability and robustness compared to state-of-the-art methods. Lastly, we validate our methods with real hardware experiments. Project Website: https://sites.google.com/view/diffusion-edfs/home

arxiv情報

著者 Hyunwoo Ryu,Jiwoo Kim,Hyunseok An,Junwoo Chang,Joohwan Seo,Taehan Kim,Yubin Kim,Chaewon Hwang,Jongeun Choi,Roberto Horowitz
発行日 2023-11-28 11:28:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク