要約
バギングは、機械学習モデルを安定させるための重要な手法です。
この論文では、任意のモデルのバギングの安定性に関する有限サンプル保証を導き出します。
私たちの結果は、データの分布、基本アルゴリズムの特性、または共変量の次元について何の仮定も置きません。
当社の保証はさまざまな種類の袋詰めに適用され、一定の範囲内で最適化されます。
経験的な結果は私たちの発見を検証し、バギングが非常に不安定な基本アルゴリズムであっても首尾よく安定化することを示しています。
要約(オリジナル)
Bagging is an important technique for stabilizing machine learning models. In this paper, we derive a finite-sample guarantee on the stability of bagging for any model. Our result places no assumptions on the distribution of the data, on the properties of the base algorithm, or on the dimensionality of the covariates. Our guarantee applies to many variants of bagging and is optimal up to a constant. Empirical results validate our findings, showing that bagging successfully stabilizes even highly unstable base algorithms.
arxiv情報
著者 | Jake A. Soloff,Rina Foygel Barber,Rebecca Willett |
発行日 | 2024-04-25 17:59:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google