要約
マルチエージェント制御の一般的なモデルであるネットワーク マルコフ決定プロセス (MDP) は、エージェントの数に応じてグローバルな状態アクション空間が指数関数的に増加するため、効率的な学習に重大な課題をもたらします。
この研究では、ネットワークダイナミクスの指数関数的減衰特性を利用して、最初にネットワーク MDP のスケーラブルなスペクトルローカル表現を導出します。これにより、各エージェントのローカル $Q$ 関数のネットワーク線形部分空間が誘導されます。
これらのローカル スペクトル表現に基づいて、連続ステートアクション ネットワーク MDP 用のスケーラブルなアルゴリズム フレームワークを設計し、アルゴリズムの収束に対するエンドツーエンドの保証を提供します。
我々は、2 つのベンチマーク問題に対するスケーラブルな表現ベースのアプローチの有効性を経験的に検証し、ローカル $Q$ 関数を表現する一般的な関数近似アプローチと比較したこのアプローチの利点を実証します。
要約(オリジナル)
Network Markov Decision Processes (MDPs), a popular model for multi-agent control, pose a significant challenge to efficient learning due to the exponential growth of the global state-action space with the number of agents. In this work, utilizing the exponential decay property of network dynamics, we first derive scalable spectral local representations for network MDPs, which induces a network linear subspace for the local $Q$-function of each agent. Building on these local spectral representations, we design a scalable algorithmic framework for continuous state-action network MDPs, and provide end-to-end guarantees for the convergence of our algorithm. Empirically, we validate the effectiveness of our scalable representation-based approach on two benchmark problems, and demonstrate the advantages of our approach over generic function approximation approaches to representing the local $Q$-functions.
arxiv情報
著者 | Zhaolin Ren,Runyu Zhang,Bo Dai,Na Li |
発行日 | 2024-11-18 15:21:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google