Revisiting Implicit Neural Representations in Low-Level Vision

要約

タイトル:低レベルビジョンにおける暗黙的ニューラル表現の再考

要約:
– Implicit Neural Representation (INR)は、最近のコンピュータービジョンにおいて出現している。
– INRは、離散的な画像データから連続した信号をパラメータ化することができるため、dense 3D modelsのようなものに効果があることが示されている。
– しかし、INRは2D画像処理のタスクで未だに十分に探究されていない。
– この研究では、INRを再考し、画像復元などの低レベルビジョンの問題における適用性を調査することに興味がある。
– 実験的評価により、INRが限られたリソースでのいくつかの低レベルビジョンタスクにおいて、2dB以上の性能でその相手に優ることが示された。
– コードとモデルはhttps://github.com/WenTXuL/LINRで利用可能。

要約(オリジナル)

Implicit Neural Representation (INR) has been emerging in computer vision in recent years. It has been shown to be effective in parameterising continuous signals such as dense 3D models from discrete image data, e.g. the neural radius field (NeRF). However, INR is under-explored in 2D image processing tasks. Considering the basic definition and the structure of INR, we are interested in its effectiveness in low-level vision problems such as image restoration. In this work, we revisit INR and investigate its application in low-level image restoration tasks including image denoising, super-resolution, inpainting, and deblurring. Extensive experimental evaluations suggest the superior performance of INR in several low-level vision tasks with limited resources, outperforming its counterparts by over 2dB. Code and models are available at https://github.com/WenTXuL/LINR

arxiv情報

著者 Wentian Xu,Jianbo Jiao
発行日 2023-04-20 12:19:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク