要約
拡散モデルは、高次元およびマルチモーダル分布をキャプチャする能力により、ロボット工学のポリシー学習に人気があります。
ただし、拡散ポリシーは確率的であり、通常はオフラインでトレーニングされており、トレーニングデータに表されない新しい制約を満たす必要がある目に見えない動的な条件を処理する能力を制限します。
この制限を克服するために、拡散予測制御を制約(DPCC)で提案します。これは、トレーニングデータのものから逸脱できる明示的な状態およびアクション制約を備えた拡散ベースの制御のアルゴリズムです。
DPCCは、訓練された軌道拡散モデルの除去プロセスにモデルベースの投影を組み込み、制約の締め付けを使用してモデルの不一致を説明します。
これにより、予測制御のための制約に満足し、動的に実行可能な、目標を達成する軌跡を生成することができます。
ロボットマニピュレーターのシミュレーションを通じて、DPCCは、学習した制御タスクのパフォーマンスを維持しながら、新しいテスト時間制約を満たす際に既存の方法を上回ることを示します。
要約(オリジナル)
Diffusion models have become popular for policy learning in robotics due to their ability to capture high-dimensional and multimodal distributions. However, diffusion policies are stochastic and typically trained offline, limiting their ability to handle unseen and dynamic conditions where novel constraints not represented in the training data must be satisfied. To overcome this limitation, we propose diffusion predictive control with constraints (DPCC), an algorithm for diffusion-based control with explicit state and action constraints that can deviate from those in the training data. DPCC incorporates model-based projections into the denoising process of a trained trajectory diffusion model and uses constraint tightening to account for model mismatch. This allows us to generate constraint-satisfying, dynamically feasible, and goal-reaching trajectories for predictive control. We show through simulations of a robot manipulator that DPCC outperforms existing methods in satisfying novel test-time constraints while maintaining performance on the learned control task.
arxiv情報
著者 | Ralf Römer,Alexander von Rohr,Angela P. Schoellig |
発行日 | 2025-05-27 15:45:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google