要約
暗黙的ニューラル表現 (INR) は、少数のパラメーターを使用して忠実度の高いターゲット シーンを記述することができ、有望なデータ圧縮手法として浮上しています。
ただし、INR は本質的にスペクトル カバレッジが限られているため、さまざまな複雑なデータの冗長性を効果的に取り除くことは自明ではありません。
予備調査では、ターゲット データのグローバルまたはローカル相関のみを利用できるため、パフォーマンスが制限されます。
この論文では、局所領域のコンパクトな表現を行い、これらの局所表現の共有特徴を階層的に抽出するために、ツリー構造の暗黙的ニューラル圧縮(TINC)を提案します。
具体的には、MLP を使用して分割されたローカル領域に適合させます。これらの MLP はツリー構造で編成され、空間距離に従ってパラメーターを共有します。
パラメータ共有スキームは、隣接する領域間の連続性を保証するだけでなく、ローカルおよび非ローカルの冗長性を共同で削除します。
広範な実験により、TINC が INR の圧縮忠実度を向上させ、商用ツールやその他の深層学習ベースの方法よりも優れた圧縮機能を示していることが示されています。
さらに、このアプローチは柔軟性が高く、さまざまなデータやパラメーター設定に合わせて調整できます。
再現可能なコードはすべて github で公開される予定です。
要約(オリジナル)
Implicit neural representation (INR) can describe the target scenes with high fidelity using a small number of parameters, and is emerging as a promising data compression technique. However, INR in intrinsically of limited spectrum coverage, and it is non-trivial to remove redundancy in diverse complex data effectively. Preliminary studies can only exploit either global or local correlation in the target data and thus of limited performance. In this paper, we propose a Tree-structured Implicit Neural Compression (TINC) to conduct compact representation for local regions and extract the shared features of these local representations in a hierarchical manner. Specifically, we use MLPs to fit the partitioned local regions, and these MLPs are organized in tree structure to share parameters according to the spatial distance. The parameter sharing scheme not only ensures the continuity between adjacent regions, but also jointly removes the local and non-local redundancy. Extensive experiments show that TINC improves the compression fidelity of INR, and has shown impressive compression capabilities over commercial tools and other deep learning based methods. Besides, the approach is of high flexibility and can be tailored for different data and parameter settings. All the reproducible codes are going to be released on github.
arxiv情報
著者 | Runzhao Yang,Tingxiong Xiao,Yuxiao Cheng,Jinli Suo,Qionghai Dai |
発行日 | 2022-11-17 14:22:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google