Lightweight Alpha Matting Network Using Distillation-Based Channel Pruning

要約

最近、セルフィーなどのモバイル アプリケーションでの有用性から、アルファ マットが多くの注目を集めています。
したがって、市販のポータブル デバイスの計算リソースが限られているため、軽量のアルファ マッティング モデルが求められています。
この目的のために、アルファマッティングネットワークの蒸留ベースのチャネルプルーニング方法を提案します。
剪定ステップでは、教師ネットワークの知識を模倣することへの影響が少ない生徒ネットワークのチャネルを削除します。
次に、刈り込まれた軽量の学生ネットワークは、同じ蒸留損失によってトレーニングされます。
提案された方法による軽量アルファ マッティング モデルは、既存の軽量方法よりも優れています。
私たちのアルゴリズムの優位性を示すために、さまざまな定量的および定性的な実験を詳細な分析とともに提供します。
さらに、セマンティック セグメンテーションに適用することにより、提案された蒸留ベースのチャネル枝刈り法の汎用性を示します。

要約(オリジナル)

Recently, alpha matting has received a lot of attention because of its usefulness in mobile applications such as selfies. Therefore, there has been a demand for a lightweight alpha matting model due to the limited computational resources of commercial portable devices. To this end, we suggest a distillation-based channel pruning method for the alpha matting networks. In the pruning step, we remove channels of a student network having fewer impacts on mimicking the knowledge of a teacher network. Then, the pruned lightweight student network is trained by the same distillation loss. A lightweight alpha matting model from the proposed method outperforms existing lightweight methods. To show superiority of our algorithm, we provide various quantitative and qualitative experiments with in-depth analyses. Furthermore, we demonstrate the versatility of the proposed distillation-based channel pruning method by applying it to semantic segmentation.

arxiv情報

著者 Donggeun Yoon,Jinsun Park,Donghyeon Cho
発行日 2022-10-14 12:48:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク