When Analytic Calculus Cracks AdaBoost Code

要約

教師あり学習におけるブースティングの原理には、複数の弱分類器を組み合わせてより強力な分類器を取得することが含まれます。
AdaBoost は、このアプローチの完璧な例であるという評判があります。
以前に、AdaBoost が真の最適化アルゴリズムではないことを示しました。
この論文では、得られる弱分類器の組み合わせは真理値表を使用して明示的に計算できるため、AdaBoost が名ばかりのアルゴリズムであることを示しています。
この調査は 2 つのクラスの問題を考慮して実行され、3 つのバイナリ分類器の特定のケースで説明され、Python ライブラリ scikit-learn の AdaBoost アルゴリズムの実装からの結果と比較した結果が示されています。

要約(オリジナル)

The principle of boosting in supervised learning involves combining multiple weak classifiers to obtain a stronger classifier. AdaBoost has the reputation to be a perfect example of this approach. We have previously shown that AdaBoost is not truly an optimization algorithm. This paper shows that AdaBoost is an algorithm in name only, as the resulting combination of weak classifiers can be explicitly calculated using a truth table. This study is carried out by considering a problem with two classes and is illustrated by the particular case of three binary classifiers and presents results in comparison with those from the implementation of AdaBoost algorithm of the Python library scikit-learn.

arxiv情報

著者 Jean-Marc Brossier,Olivier Lafitte,Lenny Réthoré
発行日 2023-08-02 10:37:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク