MLIC++: Linear Complexity Multi-Reference Entropy Modeling for Learned Image Compression

要約

最近、チャネルごとの、ローカルな空間相関、およびグローバルな空間相関を捕捉する、マルチリファレンス エントロピー モデルが提案されました。
これまでの研究では、大域的な相関の捕捉に注意が払われていましたが、二次 cpmplexity が高解像度画像符号化の可能性を制限していました。
この論文では、ソフトマックス演算の分解を介して、線形複雑性の大域的相関を捉えることを提案します。
これに基づいて、多重参照エントロピー モデリングのための線形複雑性を備えた学習済み画像圧縮である MLIC$^{++}$ を提案します。
MLIC$^{++}$ はより効率的で、PSNR で測定した場合、VTM-17.0 と比較して Kodak データセットで BD レートが 12.44% 削減されます。
コードは https://github.com/JiangWeibeta/MLIC で入手できます。

要約(オリジナル)

Recently, multi-reference entropy model has been proposed, which captures channel-wise, local spatial, and global spatial correlations. Previous works adopt attention for global correlation capturing, however, the quadratic cpmplexity limits the potential of high-resolution image coding. In this paper, we propose the linear complexity global correlations capturing, via the decomposition of softmax operation. Based on it, we propose the MLIC$^{++}$, a learned image compression with linear complexity for multi-reference entropy modeling. Our MLIC$^{++}$ is more efficient and it reduces BD-rate by 12.44% on the Kodak dataset compared to VTM-17.0 when measured in PSNR. Code will be available at https://github.com/JiangWeibeta/MLIC.

arxiv情報

著者 Wei Jiang,Ronggang Wang
発行日 2023-07-28 09:11:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク