Competitive strategies to use ‘warm start’ algorithms with predictions

要約

我々は、予測を伴うウォームスタートアルゴリズムに対する予測を学習し、利用する問題を考察する。この設定では、アルゴリズムに問題のインスタンスと解の予測が与えられる。アルゴリズムの実行時間は、予測された解からインスタンスの真の解までの距離によって制限される。これまでの研究で、インスタンスがある分布から同値で引かれる場合、近似的に最適な固定予測を学習することが可能であることが示されており(Dinitz et al, NeurIPS 2021)、敵対的オンラインのケースでは、後知恵で最良の固定予測と競合することが可能であることが示されている(Khodak et al, NeurIPS 2022)。 本研究では、$k$個の予測セット$mathbf{P}$を考慮する、より強力なベンチマークに対する競争的保証を与える。つまり、$mathbf{P}$に関してインスタンスを解く「最適オフラインコスト」は、真の解から$mathbf{P}$の最も近いメンバーまでの距離である。これは$k$-medians目的関数に類似している。分布の設定において、最適なオフラインのコストよりも最大でも$O(k)$倍悪いコストを発生させる単純な戦略を示す。次に、インスタンス空間を「類似」インスタンスのグループに分割する形で、学習可能な粗い情報を活用する方法を示す。 最後に、この問題のオンライン版を考える。この問題では、移動する$k$個の予測セットあるいは「軌跡」を保持することが許され、予測がどれだけ移動したかに応じて課金されるオフライン戦略と競争する。我々は、$k$の軌道のオフライン戦略よりも、最大で$O(k^4 \ln^2 k)$倍の仕事をするアルゴリズムを与える。このアルゴリズムは決定論的であり(適応的な敵対者に対して頑健である)、 $k$の設定に依存しない。従って、保証は全ての$k$に対して同時に成立する。

要約(オリジナル)

We consider the problem of learning and using predictions for warm start algorithms with predictions. In this setting, an algorithm is given an instance of a problem, and a prediction of the solution. The runtime of the algorithm is bounded by the distance from the predicted solution to the true solution of the instance. Previous work has shown that when instances are drawn iid from some distribution, it is possible to learn an approximately optimal fixed prediction (Dinitz et al, NeurIPS 2021), and in the adversarial online case, it is possible to compete with the best fixed prediction in hindsight (Khodak et al, NeurIPS 2022). In this work we give competitive guarantees against stronger benchmarks that consider a set of $k$ predictions $\mathbf{P}$. That is, the ‘optimal offline cost’ to solve an instance with respect to $\mathbf{P}$ is the distance from the true solution to the closest member of $\mathbf{P}$. This is analogous to the $k$-medians objective function. In the distributional setting, we show a simple strategy that incurs cost that is at most an $O(k)$ factor worse than the optimal offline cost. We then show a way to leverage learnable coarse information, in the form of partitions of the instance space into groups of ‘similar’ instances, that allows us to potentially avoid this $O(k)$ factor. Finally, we consider an online version of the problem, where we compete against offline strategies that are allowed to maintain a moving set of $k$ predictions or ‘trajectories,’ and are charged for how much the predictions move. We give an algorithm that does at most $O(k^4 \ln^2 k)$ times as much work as any offline strategy of $k$ trajectories. This algorithm is deterministic (robust to an adaptive adversary), and oblivious to the setting of $k$. Thus the guarantee holds for all $k$ simultaneously.

arxiv情報

著者 Vaidehi Srinivas,Avrim Blum
発行日 2024-05-06 17:38:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.DS, cs.LG パーマリンク