Oracle-Efficient Smoothed Online Learning for Piecewise Continuous Decision Making

要約

スムーズなオンライン学習は、古典的な学習から敵対的な学習に移行するときに生じる統計的および計算の複雑さの大幅な損失を軽減するための一般的なフレームワークとして登場しました。
残念なことに、一部の空間では、学習者が空間全体にわたる最適化オラクルにアクセスできる場合でも、効率的なアルゴリズムはミニマックス最適アルゴリズムよりも指数関数的に悪い後悔を受けることが示されています。
この指数依存性を軽減するために、この研究では、複雑さの新しい概念である一般化された括弧番号を導入し、敵の制約と空間のサイズを結び付け、Follow-the-Perturbed-Leader のインスタンス化が低い後悔を達成できることを示しています。
最適化オラクルの呼び出し数は、平均リグレスに関して最適にスケーリングされます。
次に、オンライン予測や区分的連続関数の計画など、計量経済学やロボット工学などの多様な分野で多くの応用が可能な、いくつかの興味深い問題の境界をインスタンス化します。

要約(オリジナル)

Smoothed online learning has emerged as a popular framework to mitigate the substantial loss in statistical and computational complexity that arises when one moves from classical to adversarial learning. Unfortunately, for some spaces, it has been shown that efficient algorithms suffer an exponentially worse regret than that which is minimax optimal, even when the learner has access to an optimization oracle over the space. To mitigate that exponential dependence, this work introduces a new notion of complexity, the generalized bracketing numbers, which marries constraints on the adversary to the size of the space, and shows that an instantiation of Follow-the-Perturbed-Leader can attain low regret with the number of calls to the optimization oracle scaling optimally with respect to average regret. We then instantiate our bounds in several problems of interest, including online prediction and planning of piecewise continuous functions, which has many applications in fields as diverse as econometrics and robotics.

arxiv情報

著者 Adam Block,Alexander Rakhlin,Max Simchowitz
発行日 2024-03-19 15:22:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク