General Transformation for Consistent Online Approximation Algorithms

要約

オフライン近似アルゴリズムからのランダム順序モデルにおける $\epsilon$-近似後悔の少ないオンライン アルゴリズムを開発するために利用できる変換フレームワークを紹介します。
まず、平均感度の低いオフライン近似アルゴリズムを $\epsilon$-近似後悔の少ないオンライン アルゴリズムに変換する一般的な還元定理を与えます。
次に、コアセット構築方法を使用して、オフライン近似アルゴリズムを低感度バージョンに変換できることを示します。
私たちのアプローチの多用途性を示すために、それをオンライン $(k,z)$ クラスタリング、オンライン行列近似、オンライン回帰などのさまざまな問題に適用し、各問題について多重対数 $\epsilon$-近似リグアロングを達成することに成功しました。
さらに、3 つのケースすべてにおいて、アルゴリズムの不整合性も低く、一部のオンライン アプリケーションではこれが望ましいことも示されています。

要約(オリジナル)

We introduce a transformation framework that can be utilized to develop online algorithms with low $\epsilon$-approximate regret in the random-order model from offline approximation algorithms. We first give a general reduction theorem that transforms an offline approximation algorithm with low average sensitivity to an online algorithm with low $\epsilon$-approximate regret. We then demonstrate that offline approximation algorithms can be transformed into a low-sensitivity version using a coreset construction method. To showcase the versatility of our approach, we apply it to various problems, including online $(k,z)$-clustering, online matrix approximation, and online regression, and successfully achieve polylogarithmic $\epsilon$-approximate regret for each problem. Moreover, we show that in all three cases, our algorithm also enjoys low inconsistency, which may be desired in some online applications.

arxiv情報

著者 Jing Dong,Yuichi Yoshida
発行日 2023-06-12 14:50:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク