要約
タスク固有のトレーニングなしでタスク固有のマニピュレーター設計を生成するためのデータ駆動型フレームワークであるダイナミクスガイド拡散モデル(DGDM)を提示します。
オブジェクトの形状とタスクの仕様が与えられた場合、DGDMは、オブジェクトを盲目的に操作して、オープンループパラレルモーションを使用して望ましい動きとポーズに向かって盲目的に操作できるセンサーレスマニピュレーター設計を生成します。
このフレームワーク1)操作タスクをインタラクションプロファイルとして柔軟に表し、2)幾何学的拡散モデルを使用して設計空間を表し、3)タスク情報なしでトレーニングされたダイナミクスネットワークが提供する勾配を使用してこの設計空間を効率的に検索します。
オブジェクトのシフト/回転から特定のポーズへの収束に至るまで、さまざまな操作タスクでDGDMを評価します。
私たちの生成されたデザインは、平均成功率で31.5%と45.3%比較的最適化ベースと無ガイド拡散ベースラインよりも優れています。
0.8以内に新しい設計を生成する機能により、DGDMは迅速な設計反復を促進し、ロボットメカニズム設計のためのデータ駆動型アプローチの採用を強化します。
定性的な結果は、プロジェクトWebサイトhttps://dgdm-robot.github.io/で最もよく表示されます。
要約(オリジナル)
We present Dynamics-Guided Diffusion Model (DGDM), a data-driven framework for generating task-specific manipulator designs without task-specific training. Given object shapes and task specifications, DGDM generates sensor-less manipulator designs that can blindly manipulate objects towards desired motions and poses using an open-loop parallel motion. This framework 1) flexibly represents manipulation tasks as interaction profiles, 2) represents the design space using a geometric diffusion model, and 3) efficiently searches this design space using the gradients provided by a dynamics network trained without any task information. We evaluate DGDM on various manipulation tasks ranging from shifting/rotating objects to converging objects to a specific pose. Our generated designs outperform optimization-based and unguided diffusion baselines relatively by 31.5% and 45.3% on average success rate. With the ability to generate a new design within 0.8s, DGDM facilitates rapid design iteration and enhances the adoption of data-driven approaches for robot mechanism design. Qualitative results are best viewed on our project website https://dgdm-robot.github.io/.
arxiv情報
著者 | Xiaomeng Xu,Huy Ha,Shuran Song |
発行日 | 2025-03-28 02:09:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google