要約
不完全情報ゲームにおける近似相関平衡の分散学習の反復の複雑さを研究します。
マイナス面としては、$\mathsf{PPAD} \not\subset \mathsf{TIME}(n と仮定すると、$\mathit{extensive}$-$\mathit{form}$ $\mathit{games}$ で次のことが証明されます。
^{\mathsf{polylog}(n)})$、多項式時間学習アルゴリズムには少なくとも $2^{\log_2^{1-o(1)}(|\mathcal{I}|)}$ 回の反復が必要です
$\epsilon$ の近似相関平衡のセットに収束します。ここで、$|\mathcal{I}|$ はゲーム内のノードの数、$\epsilon > 0$ は絶対定数です。
これは、$o(1)$ 項までは、$\epsilon$ 近似相関平衡を学習するための [PR’24, DDFG’24] のアルゴリズムとほぼ一致し、アナグノスティデス、カラヴァシス、サンドホルム、
そしてザンペタキス[AKSZ’24]。
私たちの下限は、$\epsilon$-近似 $\mathit{coarse}$ 相関平衡というより簡単な解の概念にも当てはまります。プラス側では、$\mathit の $\epsilon$-近似相関平衡に達する非共役ダイナミクスを与えます。
型の数に依存せず、多対数反復で {Bayesian}$ $\mathit{game}$ を実行します。
これは、ベイジアン ゲームと拡張形式ゲームの分離を示しています。
要約(オリジナル)
We study the iteration complexity of decentralized learning of approximate correlated equilibria in incomplete information games. On the negative side, we prove that in $\mathit{extensive}$-$\mathit{form}$ $\mathit{games}$, assuming $\mathsf{PPAD} \not\subset \mathsf{TIME}(n^{\mathsf{polylog}(n)})$, any polynomial-time learning algorithms must take at least $2^{\log_2^{1-o(1)}(|\mathcal{I}|)}$ iterations to converge to the set of $\epsilon$-approximate correlated equilibrium, where $|\mathcal{I}|$ is the number of nodes in the game and $\epsilon > 0$ is an absolute constant. This nearly matches, up to the $o(1)$ term, the algorithms of [PR’24, DDFG’24] for learning $\epsilon$-approximate correlated equilibrium, and resolves an open question of Anagnostides, Kalavasis, Sandholm, and Zampetakis [AKSZ’24]. Our lower bound holds even for the easier solution concept of $\epsilon$-approximate $\mathit{coarse}$ correlated equilibrium On the positive side, we give uncoupled dynamics that reach $\epsilon$-approximate correlated equilibria of a $\mathit{Bayesian}$ $\mathit{game}$ in polylogarithmic iterations, without any dependence of the number of types. This demonstrates a separation between Bayesian games and extensive-form games.
arxiv情報
著者 | Binghui Peng,Aviad Rubinstein |
発行日 | 2024-06-04 14:35:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google