Reducing The Amortization Gap of Entropy Bottleneck In End-to-End Image Compression

要約

エンドツーエンドの深層学習可能なモデルは、動画や画像に対する従来の手作り圧縮技術の性能を超えようとしている。コアとなるアイデアは、ディープニューラルネットワークとしてモデル化された、入力画像を潜在空間にマッピングする非線形変換を、潜在分布のエントロピーモデルと共同で学習することである。デコーダもまた深い学習可能なネットワークとして学習され、再構成された画像は歪みを測定する。これらの手法では、潜在能力がある事前分布に従うことを強制する。これらの事前分布は訓練セット全体に対する最適化によって学習されるため、性能は平均的に最適である。しかし,これらの事前分布はすべての新しい画像に適用することはできないため,ビットストリームが肥大化し圧縮性能が低下する.本論文では、この償却ギャップをわずかなコストで低減するために、シンプルかつ効率的なインスタンスベースのパラメータ化手法を提案する。提案手法は、あらゆるエンドツーエンド圧縮方式に適用可能であり、再構成品質に影響を与えることなく、圧縮ビットレートを1%向上させることができる。

要約(オリジナル)

End-to-end deep trainable models are about to exceed the performance of the traditional handcrafted compression techniques on videos and images. The core idea is to learn a non-linear transformation, modeled as a deep neural network, mapping input image into latent space, jointly with an entropy model of the latent distribution. The decoder is also learned as a deep trainable network, and the reconstructed image measures the distortion. These methods enforce the latent to follow some prior distributions. Since these priors are learned by optimization over the entire training set, the performance is optimal in average. However, it cannot fit exactly on every single new instance, hence damaging the compression performance by enlarging the bit-stream. In this paper, we propose a simple yet efficient instance-based parameterization method to reduce this amortization gap at a minor cost. The proposed method is applicable to any end-to-end compressing methods, improving the compression bitrate by 1% without any impact on the reconstruction quality.

arxiv情報

著者 Muhammet Balcilar,Bharath Damodaran,Pierre Hellier
発行日 2022-09-02 11:43:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 03B44, 94A08, cs.CV, cs.LG, eess.IV パーマリンク