要約
アンサンブル学習では、共通の機械学習タスクで複数のモデル (つまり、弱学習器) を利用して、予測パフォーマンスを向上させます。
基本的なアンサンブル アプローチでは、弱学習器の出力を平均化しますが、より高度なアプローチでは、弱学習器の出力と最終予測の間に機械学習モデルをスタックします。
この作品では、前述の両方のフレームワークが融合されています。
弱学習器の予測の最適な集約を実行するために、さまざまな種類の平均をモデル化および組み合わせて、集約 f 平均 (AFA) 浅いニューラル ネットワークを導入します。
解釈可能なアーキテクチャとシンプルなトレーニング戦略を強調し、数回のクラスの増分学習の問題に対する優れたパフォーマンスを示します。
要約(オリジナル)
Ensemble learning leverages multiple models (i.e., weak learners) on a common machine learning task to enhance prediction performance. Basic ensembling approaches average the weak learners outputs, while more sophisticated ones stack a machine learning model in between the weak learners outputs and the final prediction. This work fuses both aforementioned frameworks. We introduce an aggregated f-average (AFA) shallow neural network which models and combines different types of averages to perform an optimal aggregation of the weak learners predictions. We emphasise its interpretable architecture and simple training strategy, and illustrate its good performance on the problem of few-shot class incremental learning.
arxiv情報
著者 | Mathieu Vu,Emilie Chouzenoux,Jean-Christophe Pesquet,Ismail Ben Ayed |
発行日 | 2023-11-30 15:16:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google