要約
オンライン学習アルゴリズムは、要求シーケンスに関する統計的仮定なしで、リクエストの総数でサブリンの後悔を伴うキャッシュポリシーを設計するために成功裏に使用されています。
ほとんどの既存のアルゴリズムには、計算上の高価な操作が含まれており、過去のすべてのリクエストの知識が必要です。
ただし、これは、携帯電話基地局でのキャッシュなどの実際のシナリオでは実現できない場合があります。
したがって、過去のリクエストのほんの一部しか観察されない、より制限的な設定でキャッシュ問題を研究し、従来のオンライン学習アルゴリズムに基づいて、頻繁に襲われた従来のアルゴリズム(FPL)に基づいて、サブリンの後悔を伴うランダム化キャッシュポリシーを提案します。
当社のキャッシュポリシーは、リクエストの部分的な観測可能性設定で漸近的に一定の償却時間の複雑さを確保しながら、漸近的に最適な後悔を達成した最初のポリシーです。
実験的評価は、提案されたソリューションを古典的なキャッシングポリシーと比較し、合成および実世界の要求トレースの下で提案されたアプローチを検証します。
要約(オリジナル)
Online learning algorithms have been successfully used to design caching policies with sublinear regret in the total number of requests, with no statistical assumption about the request sequence. Most existing algorithms involve computationally expensive operations and require knowledge of all past requests. However, this may not be feasible in practical scenarios like caching at a cellular base station. Therefore, we study the caching problem in a more restrictive setting where only a fraction of past requests are observed, and we propose a randomized caching policy with sublinear regret based on the classic online learning algorithm Follow-the-Perturbed-Leader (FPL). Our caching policy is the first to attain the asymptotically optimal regret bound while ensuring asymptotically constant amortized time complexity in the partial observability setting of requests. The experimental evaluation compares the proposed solution against classic caching policies and validates the proposed approach under synthetic and real-world request traces.
arxiv情報
著者 | Younes Ben Mazziane,Francescomaria Faticanti,Sara Alouf,Giovanni Neglia |
発行日 | 2025-03-04 16:21:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google