Compression with Bayesian Implicit Neural Representations

要約

多くの一般的なタイプのデータは、画像の場合はピクセル位置を RGB 値にマッピングするなど、座標を信号値にマッピングする関数として表すことができます。
この見解に基づいて、コンパクトなニューラル ネットワークをその関数表現にオーバーフィットし、ネットワークの重みをエンコードすることでデータを圧縮できます。
ただし、これに対する現在のソリューションのほとんどは、低ビット精度への量子化により再構築の品質が大幅に低下するため、非効率的です。
この問題に対処するために、変分ベイジアン ニューラル ネットワークをデータにオーバーフィッティングし、量子化およびエントロピー コーディングの代わりに相対エントロピー コーディングを使用して近似事後重みサンプルを圧縮することを提案します。
この戦略により、$\beta$-ELBO を最小限に抑えてレート歪みのパフォーマンスを直接最適化でき、$\beta$ を調整することで特定のネットワーク アーキテクチャのさまざまなレート歪みのトレードオフをターゲットにできます。
さらに、事前の重み分布を学習するための反復アルゴリズムを導入し、パフォーマンスを大幅に向上させる変分事後分布の漸進的改良プロセスを採用しています。
実験では、私たちの方法がシンプルさを維持しながら画像と音声の圧縮で強力なパフォーマンスを達成することを示しています。

要約(オリジナル)

Many common types of data can be represented as functions that map coordinates to signal values, such as pixel locations to RGB values in the case of an image. Based on this view, data can be compressed by overfitting a compact neural network to its functional representation and then encoding the network weights. However, most current solutions for this are inefficient, as quantization to low-bit precision substantially degrades the reconstruction quality. To address this issue, we propose overfitting variational Bayesian neural networks to the data and compressing an approximate posterior weight sample using relative entropy coding instead of quantizing and entropy coding it. This strategy enables direct optimization of the rate-distortion performance by minimizing the $\beta$-ELBO, and target different rate-distortion trade-offs for a given network architecture by adjusting $\beta$. Moreover, we introduce an iterative algorithm for learning prior weight distributions and employ a progressive refinement process for the variational posterior that significantly enhances performance. Experiments show that our method achieves strong performance on image and audio compression while retaining simplicity.

arxiv情報

著者 Zongyu Guo,Gergely Flamich,Jiajun He,Zhibo Chen,José Miguel Hernández-Lobato
発行日 2023-05-30 16:29:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IT, cs.LG, math.IT, stat.ML パーマリンク