要約
タイトル:背景情報を使ったクラス活性化不確実性の削減
要約:
– 多タスク学習は高性能なニューラルネットワークのトレーニングにおいて一般化性能を向上させるための一般的な手法である
– 本論文では背景クラスを提案し、多タスク学習に比べて計算量を下げつつ、改善された一般化性能を実現するための方法を提示する
– 背景画像の選択方法についても説明し、今後の改善の可能性についても考察する
– いくつかのデータセットに対してアプローチを適用し、計算量を大幅に減らしながら改善された一般化性能を達成した
– また、トレーニング方法を提案しているモデルのクラス活性化マッピング(CAM)を調査し、提案されたトレーニング方法による2クラス分類問題で大局的な視点への傾向が見られた
– スクリプトの例は、以下のGitHubリポジトリの「CAM」フォルダで入手できる:github.com/dipuk0506/UQ
要約(オリジナル)
Multitask learning is a popular approach to training high-performing neural networks with improved generalization. In this paper, we propose a background class to achieve improved generalization at a lower computation compared to multitask learning to help researchers and organizations with limited computation power. We also present a methodology for selecting background images and discuss potential future improvements. We apply our approach to several datasets and achieved improved generalization with much lower computation. We also investigate class activation mappings (CAMs) of the trained model and observed the tendency towards looking at a bigger picture in a few class classification problems with the proposed model training methodology. Example scripts are available in the `CAM’ folder of the following GitHub Repository: github.com/dipuk0506/UQ
arxiv情報
著者 | H M Dipu Kabir |
発行日 | 2023-05-05 01:40:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI