要約
畳み込みニューラル ネットワークのアンサンブルは、画像分類タスクの弁別的セマンティック機能の学習において顕著な結果を示しています。
ただし、アンサンブル内のモデルは、多くの場合、画像内の同様の領域に集中しています。
この作業では、一連の基本モデルに分類タスクのさまざまな機能を強制的に学習させる新しい方法を提案します。
これらのモデルをアンサンブルに組み合わせて、集合的な分類を行います。
重要な発見は、モデルを強制的に異なる機能に集中させることで、分類の精度が向上することです。
さまざまな機能の概念を学習するために、いわゆる機能距離損失が機能マップに実装されています。
ベンチマーク畳み込みニューラル ネットワーク (VGG16、ResNet、AlexNet)、一般的なデータセット (Cifar10、Cifar100、miniImageNet、NEU、BSD、TEX)、およびさまざまなトレーニング サンプル (クラスごとに 3、5、10、20、50、100) に関する実験
提案された機能損失の有効性を示します。
提案された方法は、基本モデルの古典的なアンサンブル バージョンよりも優れています。
クラス アクティベーション マップは、さまざまな機能の概念を学習する能力を明確に証明しています。
コードは https://github.com/2Obe/Feature-Distance-Loss.git で入手できます。
要約(オリジナル)
Ensembles of Convolutional neural networks have shown remarkable results in learning discriminative semantic features for image classification tasks. Though, the models in the ensemble often concentrate on similar regions in images. This work proposes a novel method that forces a set of base models to learn different features for a classification task. These models are combined in an ensemble to make a collective classification. The key finding is that by forcing the models to concentrate on different features, the classification accuracy is increased. To learn different feature concepts, a so-called feature distance loss is implemented on the feature maps. The experiments on benchmark convolutional neural networks (VGG16, ResNet, AlexNet), popular datasets (Cifar10, Cifar100, miniImageNet, NEU, BSD, TEX), and different training samples (3, 5, 10, 20, 50, 100 per class) show the effectiveness of the proposed feature loss. The proposed method outperforms classical ensemble versions of the base models. The Class Activation Maps explicitly prove the ability to learn different feature concepts. The code is available at: https://github.com/2Obe/Feature-Distance-Loss.git
arxiv情報
著者 | Tobias Schlagenhauf,Yiwen Lin,Benjamin Noack |
発行日 | 2023-01-19 16:08:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google