Picking Up Quantization Steps for Compressed Image Classification

要約

タイトル:圧縮画像分類のための量子化ステップの選択

要約:

– 概要: 深層ニューラルネットワークが圧縮画像に対する感度があり、多くの現実的なアプリケーションでの使用を妨げている。本論文では、圧縮されたファイルには無視される一時的なコーディングパラメータが保持されていることを主張し、これらのパラメータを選択することにより、深層学習ネットワークが圧縮画像に対する感度を軽減することができると考える。

– 新しい提案: 1. ネットワークトレーニングへの量子化の影響を軽減するために、量子化ステップに基づいて新しい量子化意識信頼度(QAC)を提案。2. 特徴分布の分散を軽減するために、量子化ステップを利用し、バッチ正規化の代わりに量子化意識バッチ正規化(QABN)を提案。

– 実験結果: CIFAR-10、CIFAR-100、およびImageNet上で、提案手法は分類ネットワークの性能を大幅に改善することが示されている。

– コード: https://github.com/LiMaPKU/QSAM.gitにコードが公開されています。

要約(オリジナル)

The sensitivity of deep neural networks to compressed images hinders their usage in many real applications, which means classification networks may fail just after taking a screenshot and saving it as a compressed file. In this paper, we argue that neglected disposable coding parameters stored in compressed files could be picked up to reduce the sensitivity of deep neural networks to compressed images. Specifically, we resort to using one of the representative parameters, quantization steps, to facilitate image classification. Firstly, based on quantization steps, we propose a novel quantization aware confidence (QAC), which is utilized as sample weights to reduce the influence of quantization on network training. Secondly, we utilize quantization steps to alleviate the variance of feature distributions, where a quantization aware batch normalization (QABN) is proposed to replace batch normalization of classification networks. Extensive experiments show that the proposed method significantly improves the performance of classification networks on CIFAR-10, CIFAR-100, and ImageNet. The code is released on https://github.com/LiMaPKU/QSAM.git

arxiv情報

著者 Li Ma,Peixi Peng,Guangyao Chen,Yifan Zhao,Siwei Dong,Yonghong Tian
発行日 2023-04-21 02:56:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, eess.IV パーマリンク