Asymmetric Gained Deep Image Compression With Continuous Rate Adaptation

要約

ディープラーニング技術の発展に伴い、ディープラーニングと画像圧縮の組み合わせが注目を集めています。
最近、学習された画像圧縮方法は、レート歪み性能の点で従来の方法よりも優れていました。
ただし、継続的な速度適応は未解決の問題のままです。
一部の学習済み画像圧縮方法では、複数のネットワークを複数の速度で使用しますが、他の方法では、計算の複雑さの増加とパフォーマンスの低下を犠牲にして 1 つのモデルを使用します。
この論文では、連続的にレート調整可能な学習画像圧縮フレームワーク、Asymmetric Gained Variational Autoencoder (AG-VAE) を提案します。
AG-VAE は、ゲイン ユニットのペアを利用して、わずかな追加計算で 1 つのモデルで離散レート適応を実現します。
次に、指数補間を使用することにより、パフォーマンスを損なうことなく連続レート適応が実現されます。
さらに、より正確なエントロピー推定のために、非対称ガウス エントロピー モデルを提案します。
徹底的な実験は、私たちの方法がSOTA学習画像圧縮方法と同等の定量的パフォーマンスを達成し、従来の画像コーデックよりも優れた定性的パフォーマンスを達成することを示しています。
アブレーション研究では、ゲイン ユニットと非対称ガウス エントロピー モデルの有用性と優位性を確認します。

要約(オリジナル)

With the development of deep learning techniques, the combination of deep learning with image compression has drawn lots of attention. Recently, learned image compression methods had exceeded their classical counterparts in terms of rate-distortion performance. However, continuous rate adaptation remains an open question. Some learned image compression methods use multiple networks for multiple rates, while others use one single model at the expense of computational complexity increase and performance degradation. In this paper, we propose a continuously rate adjustable learned image compression framework, Asymmetric Gained Variational Autoencoder (AG-VAE). AG-VAE utilizes a pair of gain units to achieve discrete rate adaptation in one single model with a negligible additional computation. Then, by using exponential interpolation, continuous rate adaptation is achieved without compromising performance. Besides, we propose the asymmetric Gaussian entropy model for more accurate entropy estimation. Exhaustive experiments show that our method achieves comparable quantitative performance with SOTA learned image compression methods and better qualitative performance than classical image codecs. In the ablation study, we confirm the usefulness and superiority of gain units and the asymmetric Gaussian entropy model.

arxiv情報

著者 Ze Cui,Jing Wang,Shangyin Gao,Bo Bai,Tiansheng Guo,Yihui Feng
発行日 2022-08-02 11:40:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク