Generative Predictive Control: Flow Matching Policies for Dynamic and Difficult-to-Demonstrate Tasks

要約

生成制御ポリシーは最近、ロボット工学の大きな進歩を解き放ちました。
これらの方法は、デモンストレーションによって提供されるトレーニングデータを使用して、拡散またはフローマッチングを介してアクションシーケンスを生成します。
しかし、既存の方法には2つの重要な制限があります。専門家のデモが必要です。これは、取得が難しい場合があり、比較的遅い準静的タスクに限定されています。
この論文では、サンプリングベースの予測制御と生成モデリングとの間の緊密な接続を活用して、これらの各問題に対処します。
特に、シミュレートが簡単だが実証が困難な高速ダイナミクスを備えたタスクの監視された学習フレームワークである生成予測制御を紹介します。
次に、訓練されたフローマッチングポリシーを推論時間で温かく起動する方法を示し、時間的な一貫性を維持し、高周波フィードバックを可能にします。
生成予測制御は、既存の行動クローンメソッドに対する補完的なアプローチを提供し、準静的なデモンストレーション指向のタスクを超えて拡大する一般主義政策への道を開くことを望んでいると考えています。

要約(オリジナル)

Generative control policies have recently unlocked major progress in robotics. These methods produce action sequences via diffusion or flow matching, with training data provided by demonstrations. But existing methods come with two key limitations: they require expert demonstrations, which can be difficult to obtain, and they are limited to relatively slow, quasi-static tasks. In this paper, we leverage a tight connection between sampling-based predictive control and generative modeling to address each of these issues. In particular, we introduce generative predictive control, a supervised learning framework for tasks with fast dynamics that are easy to simulate but difficult to demonstrate. We then show how trained flow-matching policies can be warm-started at inference time, maintaining temporal consistency and enabling high-frequency feedback. We believe that generative predictive control offers a complementary approach to existing behavior cloning methods, and hope that it paves the way toward generalist policies that extend beyond quasi-static demonstration-oriented tasks.

arxiv情報

著者 Vince Kurtz,Joel W. Burdick
発行日 2025-05-01 17:23:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY パーマリンク