要約
ディープ ニューラル ネットワークは、生データに対して定義された非常に複雑な関数に適合できることが主な理由で、多くの分類タスクを解決するための最適な方法となっています。
このような強力な学習者の欠点は、過剰適合の危険性です。
この論文では、トレーニング中に特定の中間エポックで生成されたモデルを結合することによって過剰適合を効果的に克服する、深層ネットワーク用の新しいアンサンブル分類器を紹介します。
私たちの方法では、早期停止を使用した場合に通常は見逃される、一般的なパフォーマンスを低下させることなく、オーバーフィッティング段階でモデルによって得られた有用な知識を組み込むことができます。
このアプローチを動機付けるために、回帰モデルの理論的分析から始めます。回帰モデルの予測 (オーバーフィットが発生すると分類器間の分散が増加する) は、一般的に使用されているディープ ネットワークで経験的に実証されています。
これらの結果に基づいて、新しいアンサンブルベースの予測方法を構築します。この方法では、トレーニング エポック全体で最も合意に達した予測を達成したクラスによって予測が決定されます。
複数の画像およびテキスト分類データセットを使用して、通常のアンサンブルが過適合に苦しんでいる場合、私たちの方法は過適合による汎化の有害な低下を排除し、多くの場合、早期停止によって得られるパフォーマンスを上回ることを示します。
私たちの手法は実装が簡単で、トレーニング セット以外の追加の事前知識がなくても、あらゆるトレーニング スキームやアーキテクチャと統合できます。
したがって、これはオーバーフィットを克服するための実用的で便利なツールです。
コードは https://github.com/uristern123/United-We-Stand-Using-Epoch-wise-Agreement-of-Ensembles-to-Combat-Overfit で入手できます。
要約(オリジナル)
Deep neural networks have become the method of choice for solving many classification tasks, largely because they can fit very complex functions defined over raw data. The downside of such powerful learners is the danger of overfit. In this paper, we introduce a novel ensemble classifier for deep networks that effectively overcomes overfitting by combining models generated at specific intermediate epochs during training. Our method allows for the incorporation of useful knowledge obtained by the models during the overfitting phase without deterioration of the general performance, which is usually missed when early stopping is used. To motivate this approach, we begin with the theoretical analysis of a regression model, whose prediction — that the variance among classifiers increases when overfit occurs — is demonstrated empirically in deep networks in common use. Guided by these results, we construct a new ensemble-based prediction method, where the prediction is determined by the class that attains the most consensual prediction throughout the training epochs. Using multiple image and text classification datasets, we show that when regular ensembles suffer from overfit, our method eliminates the harmful reduction in generalization due to overfit, and often even surpasses the performance obtained by early stopping. Our method is easy to implement and can be integrated with any training scheme and architecture, without additional prior knowledge beyond the training set. It is thus a practical and useful tool to overcome overfit. Code is available at https://github.com/uristern123/United-We-Stand-Using-Epoch-wise-Agreement-of-Ensembles-to-Combat-Overfit.
arxiv情報
著者 | Uri Stern,Daniel Shwartz,Daphna Weinshall |
発行日 | 2023-12-28 15:15:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google