Algorithms for Caching and MTS with reduced number of predictions

要約

ML 拡張アルゴリズムは予測を利用して、最悪の場合の限界を超えるパフォーマンスを実現します。
これらの予測を立てるのはコストのかかる作業になる可能性があります。これが Im らの動機となりました。
’22 では、予測を最小限に使用するアルゴリズムの研究を紹介します。
Antoniadis らによって提案された、アクション予測を備えたキャッシュと MTS のための倹約アルゴリズムを設計します。
’20 では、一貫性 (完璧な予測によるパフォーマンス) と滑らかさ (予測誤差に対するパフォーマンスの依存性) のパラメーターに焦点を当てています。
キャッシュ用のアルゴリズムは 1-consistent で堅牢ですが、利用可能な予測の数が減少するにつれて滑らかさが低下します。
我々は、一貫性と滑らかさの両方が予測数の減少に伴って線形にスケールする一般的な MTS 用のアルゴリズムを提案します。
利用可能な予測の数に制限がなければ、両方のアルゴリズムは Antoniadis らによって達成された以前の保証と一致します。
’20年。

要約(オリジナル)

ML-augmented algorithms utilize predictions to achieve performance beyond their worst-case bounds. Producing these predictions might be a costly operation — this motivated Im et al. ’22 to introduce the study of algorithms which use predictions parsimoniously. We design parsimonious algorithms for caching and MTS with action predictions, proposed by Antoniadis et al. ’20, focusing on the parameters of consistency (performance with perfect predictions) and smoothness (dependence of their performance on the prediction error). Our algorithm for caching is 1-consistent, robust, and its smoothness deteriorates with the decreasing number of available predictions. We propose an algorithm for general MTS whose consistency and smoothness both scale linearly with the decreasing number of predictions. Without the restriction on the number of available predictions, both algorithms match the earlier guarantees achieved by Antoniadis et al. ’20.

arxiv情報

著者 Karim Abdel Sadek,Marek Elias
発行日 2024-04-10 16:30:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DS, cs.LG パーマリンク