Efficient Progressive Image Compression with Variance-aware Masking

要約

学習型プログレッシブ画像圧縮は、受信機でデコードされるビットが増えるにつれて画像再構成が向上するため、勢いが増しています。
我々は、画像が最初に基本品質と最高品質の潜在表現のペアとして表現されるプログレッシブ画像圧縮方法を提案します。
次に、残りの潜在表現が、上位表現と基本表現の間の要素ごとの差としてエンコードされます。
私たちのスキームは、残留潜在表現の各要素を最も重要なものから最も重要なものまでランク付けし、それを相補的なコンポーネントに分割するマスキング システムを導入することにより、要素ごとの粒度でプログレッシブ画像圧縮を可能にします。これらのコンポーネントは、異なるデータを取得するためにデコーダに個別に送信できます。
再建の質。
マスキング システムはパラメータを追加したり、複雑さを追加したりしません。
受信側では、送信されたコンポーネントから除外された上位潜在表現の要素を、ハイパープリア アーキテクチャによって予測された平均値に独立して置き換えることができ、任意の中間品質レベルで信頼性の高い再構築が保証されます。
また、既にデコードされたコンポーネントを使用してエントロピー パラメーターの推定を改良するレート拡張モジュール (REM) も導入しました。
計算の複雑さ、デコード時間、パラメーターの数を大幅に削減しながら、最先端の競合他社と競合する結果が得られます。

要約(オリジナル)

Learned progressive image compression is gaining momentum as it allows improved image reconstruction as more bits are decoded at the receiver. We propose a progressive image compression method in which an image is first represented as a pair of base-quality and top-quality latent representations. Next, a residual latent representation is encoded as the element-wise difference between the top and base representations. Our scheme enables progressive image compression with element-wise granularity by introducing a masking system that ranks each element of the residual latent representation from most to least important, dividing it into complementary components, which can be transmitted separately to the decoder in order to obtain different reconstruction quality. The masking system does not add further parameters nor complexity. At the receiver, any elements of the top latent representation excluded from the transmitted components can be independently replaced with the mean predicted by the hyperprior architecture, ensuring reliable reconstructions at any intermediate quality level. We also introduced Rate Enhancement Modules (REMs), which refine the estimation of entropy parameters using already decoded components. We obtain results competitive with state-of-the-art competitors, while significantly reducing computational complexity, decoding time, and number of parameters.

arxiv情報

著者 Alberto Presta,Enzo Tartaglione,Attilio Fiandrotti,Marco Grangetto,Pamela Cosman
発行日 2024-11-15 13:34:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク