要約
拡散モデルは、その柔軟性とマルチモダリティにより、ロボット工学における強力なツールとして注目を集めています。
これらの方法の中には複雑な問題に効果的に対処できるものもありますが、多くの場合、推論時の障害物検出に大きく依存しており、追加の機器が必要です。
これらの課題に対処するために、推論時間中に、単一の視覚入力から、到達可能な目標のみを生成し、障害物を回避する動作を計画することを同時に行う方法を提案します。
私たちのアプローチの中心となるのは、トレーニング用の衝突回避拡散カーネルの新しい使用法です。
動作クローニングおよび古典的な拡散モデルに対する評価を通じて、私たちのフレームワークはその堅牢性を証明しました。
これは、マルチモーダル環境で特に効果的であり、衝突を確実に回避しながら、目標に向かってナビゲートし、障害物によって妨げられた到達不可能な目標を回避します。
要約(オリジナル)
Diffusion models have risen as a powerful tool in robotics due to their flexibility and multi-modality. While some of these methods effectively address complex problems, they often depend heavily on inference-time obstacle detection and require additional equipment. Addressing these challenges, we present a method that, during inference time, simultaneously generates only reachable goals and plans motions that avoid obstacles, all from a single visual input. Central to our approach is the novel use of a collision-avoiding diffusion kernel for training. Through evaluations against behavior-cloning and classical diffusion models, our framework has proven its robustness. It is particularly effective in multi-modal environments, navigating toward goals and avoiding unreachable ones blocked by obstacles, while ensuring collision avoidance.
arxiv情報
著者 | Junwoo Chang,Hyunwoo Ryu,Jiwoo Kim,Soochul Yoo,Joohwan Seo,Nikhil Prakash,Jongeun Choi,Roberto Horowitz |
発行日 | 2023-10-19 09:39:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google