要約
暗黙のゲーム理論MPC(IGT-MPC)を導入します。これは、モデル予測制御(MPC)フレームの端子コストとゴー関数としてゲーム理論的相互作用の結果を予測する学習価値関数を使用する2つのエージェントモーション計画の分散アルゴリズム(MPC)フレームを使用して、相互作用を誘導し、容量の相互作用を誘導します。
このアプローチは、制約された動的ゲームとして策定する競争的で協力的なマルチエージェントモーション計画の問題に適用されます。
制約された動的ゲームを考えると、初期条件をランダムにサンプリングし、一般化されたナッシュ平衡(GNE)を解決してGNEソリューションのデータセットを生成し、GNEからの各ゲーム理論相互作用の報酬結果を計算します。
データは、単純なニューラルネットワークをトレーニングするために使用され、報酬の結果を予測します。
2台の頭から頭へのレースや無信号の交差点ナビゲーションなどのシナリオで、IGT-MPCを使用して、新たな競争力と調整された行動を紹介します。
IGT-MPCは、機械学習とゲーム理論的推論をモデルベースの分散型マルチエージェントモーション計画に統合する新しい方法を提供します。
要約(オリジナル)
We introduce an Implicit Game-Theoretic MPC (IGT-MPC), a decentralized algorithm for two-agent motion planning that uses a learned value function that predicts the game-theoretic interaction outcomes as the terminal cost-to-go function in a model predictive control (MPC) framework, guiding agents to implicitly account for interactions with other agents and maximize their reward. This approach applies to competitive and cooperative multi-agent motion planning problems which we formulate as constrained dynamic games. Given a constrained dynamic game, we randomly sample initial conditions and solve for the generalized Nash equilibrium (GNE) to generate a dataset of GNE solutions, computing the reward outcome of each game-theoretic interaction from the GNE. The data is used to train a simple neural network to predict the reward outcome, which we use as the terminal cost-to-go function in an MPC scheme. We showcase emerging competitive and coordinated behaviors using IGT-MPC in scenarios such as two-vehicle head-to-head racing and un-signalized intersection navigation. IGT-MPC offers a novel method integrating machine learning and game-theoretic reasoning into model-based decentralized multi-agent motion planning.
arxiv情報
著者 | Hansung Kim,Edward L. Zhu,Chang Seok Lim,Francesco Borrelli |
発行日 | 2025-06-05 04:38:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google