Stochastic Submodular Maximization via Polynomial Estimators

要約

この論文では、オンライン学習、チーム編成、施設の場所、影響力の最大化、能動学習、センシング目的関数で自然に発生する、一般的なマトロイド制約を伴う確率的部分モジュラー最大化問題を研究します。
言い換えれば、未知の分布を持つ劣モジュラ関数のクラスに対する期待値として定義される劣モジュラ関数を最大化することに焦点を当てます。
この形式の単調関数の場合、確率的連続貪欲アルゴリズムは、勾配の多項式推定を使用して $(1-1/e) \approx 63\%$ に任意に近い近似比 (期待値) を達成することを示します。
サンプリングを使用する従来技術の代わりにこの多項式推定器を使用すると、ランダム性のソースが排除され、実験的に実行時間が短縮されると主張します。

要約(オリジナル)

In this paper, we study stochastic submodular maximization problems with general matroid constraints, that naturally arise in online learning, team formation, facility location, influence maximization, active learning and sensing objective functions. In other words, we focus on maximizing submodular functions that are defined as expectations over a class of submodular functions with an unknown distribution. We show that for monotone functions of this form, the stochastic continuous greedy algorithm attains an approximation ratio (in expectation) arbitrarily close to $(1-1/e) \approx 63\%$ using a polynomial estimation of the gradient. We argue that using this polynomial estimator instead of the prior art that uses sampling eliminates a source of randomness and experimentally reduces execution time.

arxiv情報

著者 Gözde Özcan,Stratis Ioannidis
発行日 2023-03-17 13:32:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math.OC パーマリンク