Mixing predictions for online metric algorithms

要約

タイトル:オンライン計量アルゴリズムにおける予測の混合

要約:

– オンラインアルゴリズムにおける、学習を取り入れた主要なテクニックの1つは、複数のアルゴリズムまたは予測子を組み合わせることである
– ただし、各予測子のパフォーマンスは時間とともに変化するため、単一の最良の予測子ではなく、異なる時間で異なる予測子を使用する動的な組み合わせが望ましい
– 計量的なタスクシステムにおいて、予測を組み合わせるアルゴリズムを設計し、異なる予測子を追跡する動的な組み合わせに対して競争力を持たせる
– $\ell$個の予測子の最適な(過去において)制約のない組み合わせに対して、$O(\ell^2)$の競争比を得ることができ、これが最適であることを示す。ただし、わずかに制約のある異なる予測子の間のスイッチ数に対する基準では、$(1+\epsilon)$-競争アルゴリズムを得ることができる
– さらに、我々のアルゴリズムは、バンディットのような方法で予測子にアクセスし、一度に1つの予測子のみをクエリすることができるように適応することができる
– 一部の下界の予期しない帰結は、$k$-server問題のカバーリング形式に関する新しい構造的洞察である

要約(オリジナル)

A major technique in learning-augmented online algorithms is combining multiple algorithms or predictors. Since the performance of each predictor may vary over time, it is desirable to use not the single best predictor as a benchmark, but rather a dynamic combination which follows different predictors at different times. We design algorithms that combine predictions and are competitive against such dynamic combinations for a wide class of online problems, namely, metrical task systems. Against the best (in hindsight) unconstrained combination of $\ell$ predictors, we obtain a competitive ratio of $O(\ell^2)$, and show that this is best possible. However, for a benchmark with slightly constrained number of switches between different predictors, we can get a $(1+\epsilon)$-competitive algorithm. Moreover, our algorithms can be adapted to access predictors in a bandit-like fashion, querying only one predictor at a time. An unexpected implication of one of our lower bounds is a new structural insight about covering formulations for the $k$-server problem.

arxiv情報

著者 Antonios Antoniadis,Christian Coester,Marek Eliáš,Adam Polak,Bertrand Simon
発行日 2023-04-04 13:18:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.DS, cs.LG パーマリンク