A Stability Principle for Learning under Non-Stationarity

要約

私たちは、非定常環境における統計学習のための多用途のフレームワークを開発します。
各期間において、私たちのアプローチは安定性原理を適用して、累積バイアスを確率的誤差に対して許容範囲内に保ちながら履歴データの利用を最大化するルックバックウィンドウを選択します。
私たちの理論は、未知の非定常性に対するこのアプローチの適応性を示しています。
後悔限界は、母集団の損失が強く凸である場合、またはリプシッツのみの場合、対数因数までの最小最適値になります。
私たちの分析の中心には、関数間の類似性の尺度と、非定常データ シーケンスを準定常部​​分に分割するセグメンテーション技術という 2 つの新しいコンポーネントがあります。

要約(オリジナル)

We develop a versatile framework for statistical learning in non-stationary environments. In each time period, our approach applies a stability principle to select a look-back window that maximizes the utilization of historical data while keeping the cumulative bias within an acceptable range relative to the stochastic error. Our theory showcases the adaptability of this approach to unknown non-stationarity. The regret bound is minimax optimal up to logarithmic factors when the population losses are strongly convex, or Lipschitz only. At the heart of our analysis lie two novel components: a measure of similarity between functions and a segmentation technique for dividing the non-stationary data sequence into quasi-stationary pieces.

arxiv情報

著者 Chengpiao Huang,Kaizheng Wang
発行日 2023-10-27 17:53:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T05, 90C15, cs.AI, cs.LG, math.OC, stat.ML パーマリンク