要約
従来のブースティング アルゴリズムでは、誤って分類されたトレーニング サンプルに焦点を当てることで、学習プロセス中の難易度に基づいてその重要性が強調されます。
標準のサポート ベクター マシン (SVM) を AdaBoost フレームワークの弱学習器として使用すると、エラー サンプルに集中することでモデルのパフォーマンスを向上させることができますが、このアプローチでは重大な課題が生じます。
具体的には、安定性と堅牢性を特徴とする SVM は、ブースティング パラダイムに適合させるために不安定化を必要とする場合があり、その結果、前の反復からの重み付けされた結果に依存するため、パフォーマンスが制限される可能性があります。
これらの課題に対処するために、新しいサブサンプリング プロセスと SVM アルゴリズムおよび残留接続技術を統合するサポート ベクター ブースティング マシン (SVBM) を提案します。
このメソッドは、現在のモデルの予測と以前のラウンドからの出力の両方を考慮してサンプルの重みを更新し、効果的なスパース性制御を可能にします。
SVBM フレームワークは、複雑な決定境界を形成する機能を強化し、それによって分類パフォーマンスを向上させます。
SVBM の MATLAB ソース コードには、https://github.com/junbolian/SVBM からアクセスできます。
要約(オリジナル)
In traditional boosting algorithms, the focus on misclassified training samples emphasizes their importance based on difficulty during the learning process. While using a standard Support Vector Machine (SVM) as a weak learner in an AdaBoost framework can enhance model performance by concentrating on error samples, this approach introduces significant challenges. Specifically, SVMs, characterized by their stability and robustness, may require destabilization to fit the boosting paradigm, which in turn can constrain performance due to reliance on the weighted results from preceding iterations. To address these challenges, we propose the Support Vector Boosting Machine (SVBM), which integrates a novel subsampling process with SVM algorithms and residual connection techniques. This method updates sample weights by considering both the current model’s predictions and the outputs from prior rounds, allowing for effective sparsity control. The SVBM framework enhances the ability to form complex decision boundaries, thereby improving classification performance. The MATLAB source code for SVBM can be accessed at https://github.com/junbolian/SVBM.
arxiv情報
著者 | Junbo Jacob Lian |
発行日 | 2024-10-09 14:55:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google