要約
ガウスランダム変数の家族の最高の期待を最大化するための効率的な近似アルゴリズムを設計します。
特に、$ \ mathrm {opt}:= \ max _ {\ sigma_1、\ cdots、\ sigma_n} \ mathbb {e} \ left [\ sum_ {j = 1}^{m} \ max_ {i \ in s_j
} x_i \ right] $、$ x_i $はガウスです、
$ s_j \ subset [n] $ and $ \ sum_i \ sigma_i^2 = 1 $、次のことが含まれます。
、 – $ m = 1 $の場合、$ \ mathrm {opt} $を計算するための多項式時間近似スキーム(PTAS)、および –
$ o(\ log n)$近似アルゴリズム$ \ mathrm {opt} $ for general $ m> 1 $。
このような期待最大化の問題は、オークション市場のユーティリティの最大化から定量的遺伝学の混合モデルの学習に至るまで、多様なアプリケーションで発生します。
要約(オリジナル)
We design efficient approximation algorithms for maximizing the expectation of the supremum of families of Gaussian random variables. In particular, let $\mathrm{OPT}:=\max_{\sigma_1,\cdots,\sigma_n}\mathbb{E}\left[\sum_{j=1}^{m}\max_{i\in S_j} X_i\right]$, where $X_i$ are Gaussian, $S_j\subset[n]$ and $\sum_i\sigma_i^2=1$, then our theoretical results include: – We characterize the optimal variance allocation — it concentrates on a small subset of variables as $|S_j|$ increases, – A polynomial time approximation scheme (PTAS) for computing $\mathrm{OPT}$ when $m=1$, and – An $O(\log n)$ approximation algorithm for computing $\mathrm{OPT}$ for general $m>1$. Such expectation maximization problems occur in diverse applications, ranging from utility maximization in auctions markets to learning mixture models in quantitative genetics.
arxiv情報
著者 | Renato Purita Paes Leme,Cliff Stein,Yifeng Teng,Pratik Worah |
発行日 | 2025-02-25 18:59:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google