The noise level in linear regression with dependent data

要約

実現可能性の仮定が存在しない依存 ($\beta$-mixing) データを使用して、ランダム設計の線形回帰の上限を導出します。
厳密に実現可能なマーチンゲール ノイズ領域とは対照的に、文献には鋭いインスタンス最適化非漸近線は存在しません。
私たちの分析は、定数係数までは中心極限定理によって予測される分散項 (問題のノイズ レベル) を正確に回復するため、誤った仕様が導入されると緩やかな劣化を示します。
バーンインを過ぎると、中程度の偏差領域では結果がシャープになり、特に時間因子を混合することによって先行項が膨らむことはありません。

要約(オリジナル)

We derive upper bounds for random design linear regression with dependent ($\beta$-mixing) data absent any realizability assumptions. In contrast to the strictly realizable martingale noise regime, no sharp instance-optimal non-asymptotics are available in the literature. Up to constant factors, our analysis correctly recovers the variance term predicted by the Central Limit Theorem — the noise level of the problem — and thus exhibits graceful degradation as we introduce misspecification. Past a burn-in, our result is sharp in the moderate deviations regime, and in particular does not inflate the leading order term by mixing time factors.

arxiv情報

著者 Ingvar Ziemann,Stephen Tu,George J. Pappas,Nikolai Matni
発行日 2023-10-27 16:34:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH パーマリンク