Online Submodular Maximization via Online Convex Optimization

要約

オンライン設定における一般的なマトロイド制約の下での単調サブモジュラー最大化を研究します。
我々は、大きなクラスの部分モジュラー関数、つまり重み付き閾値ポテンシャル関数のオンライン最適化がオンライン凸最適化 (OCO) になることを証明します。
これはまさに、このクラスの関数が凹面緩和を許容するためです。
その結果、OCO ポリシーを適切な丸めスキームと組み合わせることで、組み合わせ設定でサブリニアリチャードを達成することができます。
我々の削減は、動的な後悔、バンディット、楽観的な学習設定を含む、オンライン学習の問題のさまざまなバージョンに拡張されることを示します。

要約(オリジナル)

We study monotone submodular maximization under general matroid constraints in the online setting. We prove that online optimization of a large class of submodular functions, namely, weighted threshold potential functions, reduces to online convex optimization (OCO). This is precisely because functions in this class admit a concave relaxation; as a result, OCO policies, coupled with an appropriate rounding scheme, can be used to achieve sublinear regret in the combinatorial setting. We show that our reduction extends to many different versions of the online learning problem, including the dynamic regret, bandit, and optimistic-learning settings.

arxiv情報

著者 Tareq Si-Salem,Gözde Özcan,Iasonas Nikolaou,Evimaria Terzi,Stratis Ioannidis
発行日 2023-09-13 12:22:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math.OC パーマリンク