要約
オフライン近似アルゴリズムからのランダム順序モデルにおける $\epsilon$-近似後悔の少ないオンライン アルゴリズムを開発するために利用できる変換フレームワークを紹介します。
まず、平均感度の低いオフライン近似アルゴリズムを $\epsilon$-近似後悔の少ないオンライン アルゴリズムに変換する一般的な還元定理を与えます。
次に、コアセット構築方法を使用して、オフライン近似アルゴリズムを低感度バージョンに変換できることを示します。
私たちのアプローチの多用途性を示すために、それをオンライン $(k,z)$ クラスタリング、オンライン行列近似、オンライン回帰などのさまざまな問題に適用し、各問題について多重対数 $\epsilon$-近似リグアロングを達成することに成功しました。
さらに、3 つのケースすべてにおいて、アルゴリズムの不整合性も低く、一部のオンライン アプリケーションではこれが望ましいことも示されています。
要約(オリジナル)
We introduce a transformation framework that can be utilized to develop online algorithms with low $\epsilon$-approximate regret in the random-order model from offline approximation algorithms. We first give a general reduction theorem that transforms an offline approximation algorithm with low average sensitivity to an online algorithm with low $\epsilon$-approximate regret. We then demonstrate that offline approximation algorithms can be transformed into a low-sensitivity version using a coreset construction method. To showcase the versatility of our approach, we apply it to various problems, including online $(k,z)$-clustering, online matrix approximation, and online regression, and successfully achieve polylogarithmic $\epsilon$-approximate regret for each problem. Moreover, we show that in all three cases, our algorithm also enjoys low inconsistency, which may be desired in some online applications.
arxiv情報
著者 | Jing Dong,Yuichi Yoshida |
発行日 | 2023-06-12 14:50:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google