Extracting Effective Subnetworks with Gumebel-Softmax

要約

大規模で高性能なニューラルネットワークは、しばしばパラメータが過剰であるため、プルーニングによりサイズと複雑さを劇的に減らすことができる。プルーニングとは、ネットワーク内の冗長または不要な重みや重みのグループを削除することを目的とした手法の一種です。これらの手法により、軽量なネットワークの構築が可能となり、組み込み型アプリケーションやモバイルアプリケーションでは特に重要である。本論文では、大規模な未学習ネットワークから有効なサブネットワークを抽出するための代替刈り込み手法を考案する。本手法は確率的であり、ガンベルソフトマックスを用いてサンプリングされた様々なトポロジーを探索することによりサブネットワークを抽出する。また、ソフトマックスを用いた確率分布の学習により、抽出されたトポロジーにおける重みの関連性を評価する。得られたサブネットワークは、学習時間を短縮し、性能を向上させる高効率なリスケーリング機構を用いて、さらに強化される。CIFARで行われた広範な実験により、我々のサブネットワーク抽出法が関連する研究に対して優れた性能を持つことが示された。

要約(オリジナル)

Large and performant neural networks are often overparameterized and can be drastically reduced in size and complexity thanks to pruning. Pruning is a group of methods, which seeks to remove redundant or unnecessary weights or groups of weights in a network. These techniques allow the creation of lightweight networks, which are particularly critical in embedded or mobile applications. In this paper, we devise an alternative pruning method that allows extracting effective subnetworks from larger untrained ones. Our method is stochastic and extracts subnetworks by exploring different topologies which are sampled using Gumbel Softmax. The latter is also used to train probability distributions which measure the relevance of weights in the sampled topologies. The resulting subnetworks are further enhanced using a highly efficient rescaling mechanism that reduces training time and improves performance. Extensive experiments conducted on CIFAR show the outperformance of our subnetwork extraction method against the related work.

arxiv情報

著者 Robin Dupont,Mohammed Amine Alaoui,Hichem Sahbi,Alice Lebois
発行日 2022-09-06 08:48:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク