Distribution free M-estimation

要約

基礎となるデータ分布について仮定することなく解決可能な統計的問題を描写するという基本的な問題には、長いアニメーション化された統計と学習理論があります。
このホワイトペーパーでは、凸型のM推定または確率論的最適化問題がこのような仮定のない設定で溶解性があり、解決できない問題と解決不可能な問題の間の正確な分割線を提供することを特徴付けています。
私たちが特定する条件は、おそらく驚くべきことに、最小化されている損失のリプシッツの連続性は、分布のない最小化のために必要ではなく、機械学習における学習性の古典的な特性とは異なることを示しています。

要約(オリジナル)

The basic question of delineating those statistical problems that are solvable without making any assumptions on the underlying data distribution has long animated statistics and learning theory. This paper characterizes when a convex M-estimation or stochastic optimization problem is solvable in such an assumption-free setting, providing a precise dividing line between solvable and unsolvable problems. The conditions we identify show, perhaps surprisingly, that Lipschitz continuity of the loss being minimized is not necessary for distribution free minimization, and they are also distinct from classical characterizations of learnability in machine learning.

arxiv情報

著者 Felipe Areces,John C. Duchi
発行日 2025-06-17 15:41:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IT, cs.LG, math.IT, math.ST, stat.TH パーマリンク