Cut Inner Layers: A Structured Pruning Strategy for Efficient U-Net GANs

要約

剪定は、パラメーター化されたモデルを効果的に圧縮します。
識別モデルの剪定方法の成功にもかかわらず、生成モデルにそれらを適用することは比較的めったにアプローチされていません。
この研究では、条件付きGANのU-Netジェネレーターで構造化された剪定を行います。
層ごとの感度分析により、ボトルネック近くの最内層に多くの不要なフィルターが存在し、実質的に剪定できることが確認されています。
この観察に基づいて、これらのフィルターを複数の内部レイヤーから削除するか、レイヤーを完全に削除することで代替アーキテクチャを提案します。
画像から画像への翻訳にはPix2Pixを使用し、音声駆動の会話顔生成にはWav2Lipを使用してアプローチを評価します。
私たちの方法は、グローバルな剪定ベースラインを上回り、U-Netジェネレーターの剪定場所を適切に検討することの重要性を示しています。

要約(オリジナル)

Pruning effectively compresses overparameterized models. Despite the success of pruning methods for discriminative models, applying them for generative models has been relatively rarely approached. This study conducts structured pruning on U-Net generators of conditional GANs. A per-layer sensitivity analysis confirms that many unnecessary filters exist in the innermost layers near the bottleneck and can be substantially pruned. Based on this observation, we prune these filters from multiple inner layers or suggest alternative architectures by completely eliminating the layers. We evaluate our approach with Pix2Pix for image-to-image translation and Wav2Lip for speech-driven talking face generation. Our method outperforms global pruning baselines, demonstrating the importance of properly considering where to prune for U-Net generators.

arxiv情報

著者 Bo-Kyeong Kim,Shinkook Choi,Hancheol Park
発行日 2022-06-29 13:55:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク