M$^3$PC: Test-time Model Predictive Control for Pretrained Masked Trajectory Model

要約

オフライン強化学習(RL)における最近の研究は、マスクされた自動エンコード目標の下で訓練された統合変圧器が、与えられた軌跡データセット内で異なるモダリティ(状態、行動、報酬など)間の関係を効果的にキャプチャできることを示しています。
ただし、この情報は、マスクされていないコンポーネントからマスクされたコンポーネントを再構築する代わりに、エージェントが最適なポリシーを生成する必要がある推論フェーズ中に完全に活用されていません。
前処理された軌道モデルがポリシーモデルと適切なマスクパターンを持つ世界モデルの両方として機能することを考えると、テスト時にモデル予測制御(MPC)を使用して、モデル独自の予測機能を活用してアクション選択を導くことを提案します。
D4RLとロボミミックの経験的結果は、推論期MPCが追加のパラメータートレーニングなしで、事前に防止された軌跡モデルの意思決定パフォーマンスを大幅に改善することを示しています。
さらに、当社のフレームワークは、オンライン(O2O)RLとゴールにオフラインに合わせてRLに到達するため、追加のオンラインインタラクション予算が提供されると、より大きなパフォーマンスが向上し、異なるタスクターゲットが指定されている場合はより良い一般化機能が得られます。
コードは利用可能です:https://github.com/wkh923/m3pc。

要約(オリジナル)

Recent work in Offline Reinforcement Learning (RL) has shown that a unified Transformer trained under a masked auto-encoding objective can effectively capture the relationships between different modalities (e.g., states, actions, rewards) within given trajectory datasets. However, this information has not been fully exploited during the inference phase, where the agent needs to generate an optimal policy instead of just reconstructing masked components from unmasked ones. Given that a pretrained trajectory model can act as both a Policy Model and a World Model with appropriate mask patterns, we propose using Model Predictive Control (MPC) at test time to leverage the model’s own predictive capability to guide its action selection. Empirical results on D4RL and RoboMimic show that our inference-phase MPC significantly improves the decision-making performance of a pretrained trajectory model without any additional parameter training. Furthermore, our framework can be adapted to Offline to Online (O2O) RL and Goal Reaching RL, resulting in more substantial performance gains when an additional online interaction budget is provided, and better generalization capabilities when different task targets are specified. Code is available: https://github.com/wkh923/m3pc.

arxiv情報

著者 Kehan Wen,Yutong Hu,Yao Mu,Lei Ke
発行日 2025-02-06 13:39:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY パーマリンク