Bagging Provides Assumption-free Stability

要約

タイトル:Baggingは仮定に依存しない安定性を提供する

要約:

– Baggingは機械学習モデルを安定させるための重要なテクニックである。
– 本論文では、どのようなモデルに対しても、Baggingの安定性に関する有限サンプル保証を導出する。
– この結果は、データの分布、ベースアルゴリズムの特性、共変量の次元といった点について仮定を置かない。
– 保証は、多くのBaggingの変種に適用され、定数に関して最適である。
– 実証結果は、Baggingが非常に不安定な基本アルゴリズムでも安定化できることを示している。

要約(オリジナル)

Bagging is an important technique for stabilizing machine learning models. In this paper, we derive a finite-sample guarantee on the stability of bagging for any model. Our result places no assumptions on the distribution of the data, on the properties of the base algorithm, or on the dimensionality of the covariates. Our guarantee applies to many variants of bagging and is optimal up to a constant. Empirical results validate our findings, showing that bagging successfully stabilizes even highly unstable base algorithms.

arxiv情報

著者 Jake A. Soloff,Rina Foygel Barber,Rebecca Willett
発行日 2023-04-24 03:24:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH パーマリンク