要約
一般的に使用される画像圧縮形式として、JPEG は画像の送信と保存に広く適用されています。
JPEG 画像の品質を維持しながら圧縮コストをさらに削減するために、圧縮された JPEG 画像を DCT ドメインで再圧縮する可逆トランスコーディング技術が提案されています。
一方、以前の研究では、通常、DCT 係数の冗長性を減らし、エントロピー コーディングの確率予測を一般化能力と柔軟性に欠ける手作業で最適化していました。
上記の課題に取り組むために、Joint Lossy and Residual Compression による学習済みロスレス JPEG トランスコーディング フレームワークを提案します。
エントロピー推定を直接最適化する代わりに、DCT 係数に存在する冗長性に注目します。
私たちの知る限りでは、コンパクトな表現領域で DCT 係数の冗長性を減らすために、学習したエンドツーエンドのロッシー変換コーディングを利用したのは初めてです。
また、ロスレス トランスコーディング用の残差圧縮も導入します。これは、コンテキスト ベースのエントロピー コーディングを使用して圧縮する前に、残差 DCT 係数の分布を適応的に学習します。
提案されたトランスコーディング アーキテクチャは、学習された非可逆変換コーディングと残差エントロピー コーディングのコラボレーションのおかげで、JPEG 画像の圧縮において大きな優位性を示しています。
複数のデータセットでの広範な実験により、提案されたフレームワークが JPEG 圧縮に基づいて平均で約 21.49% のビット節約を達成できることが実証されました。これは、典型的なロスレス トランスコーディング フレームワーク JPEG-XL を 3.51% 上回っています。
要約(オリジナル)
As a commonly-used image compression format, JPEG has been broadly applied in the transmission and storage of images. To further reduce the compression cost while maintaining the quality of JPEG images, lossless transcoding technology has been proposed to recompress the compressed JPEG image in the DCT domain. Previous works, on the other hand, typically reduce the redundancy of DCT coefficients and optimize the probability prediction of entropy coding in a hand-crafted manner that lacks generalization ability and flexibility. To tackle the above challenge, we propose the learned lossless JPEG transcoding framework via Joint Lossy and Residual Compression. Instead of directly optimizing the entropy estimation, we focus on the redundancy that exists in the DCT coefficients. To the best of our knowledge, we are the first to utilize the learned end-to-end lossy transform coding to reduce the redundancy of DCT coefficients in a compact representational domain. We also introduce residual compression for lossless transcoding, which adaptively learns the distribution of residual DCT coefficients before compressing them using context-based entropy coding. Our proposed transcoding architecture shows significant superiority in the compression of JPEG images thanks to the collaboration of learned lossy transform coding and residual entropy coding. Extensive experiments on multiple datasets have demonstrated that our proposed framework can achieve about 21.49% bits saving in average based on JPEG compression, which outperforms the typical lossless transcoding framework JPEG-XL by 3.51%.
arxiv情報
著者 | Xiaoshuai Fan,Xin Li,Zhibo Chen |
発行日 | 2022-08-24 17:12:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google