Filtering In Neural Implicit Functions

要約

ニューラル陰関数は、データ表現に非常に効果的です。
ただし、ニューラル ネットワークによって学習された陰関数には通常、予期しないノイズの多いアーティファクトが含まれるか、入力データに多くのスケールの詳細がある場合、または低周波帯域幅と高周波帯域幅の両方が含まれる場合、詳細が失われます。
細かいスケールのコンテンツを維持しながらアーティファクトを除去することは困難であり、通常は過剰なスムージングやノイズの問題が発生します。
このジレンマを解決するために、フィルタリング モジュールを MLP に統合して、異なる周波数を含む領域を適応させながらデータ再構築を実行する新しいフレームワーク (FINN) を提案します。
フィルタリング モジュールには、ネットワークの中間結果に作用する平滑化演算子があり、結果が平滑になるようにします。回復演算子は、高周波数を過度に平滑化する領域にもたらします。
2 つのカウンターアクティブ オペレーターは、すべての MLP レイヤーで連続して再生し、再構成に適応的に影響を与えます。
いくつかのタスクで FINN の利点を示し、最先端の方法と比較して大幅な改善を示します。
さらに、FINN は、収束速度とネットワークの安定性の両方で優れたパフォーマンスを発揮します。

要約(オリジナル)

Neural implicit functions are highly effective for data representation. However, the implicit functions learned by neural networks usually include unexpected noisy artifacts or lose fine details if the input data has many scales of detail or contains both low-frequency and high-frequency bandwidths. Removing artifacts while preserving fine-scale contents is challenging and usually comes out with over-smoothing or noisy issues. To solve this dilemma, we propose a new framework (FINN) that integrates a filtering module into the MLPs to perform data reconstruction while adapting regions containing different frequencies. The filtering module has a smoothing operator acting on intermediate results of the network that encourages the results to be smooth and a recovering operator bringing high frequencies to regions overly smooth. The two counteractive operators play consecutively in all MLP layers to adaptively influence the reconstruction. We demonstrate the advantage of FINN on several tasks and showcase significant improvement compared to state-of-the-art methods. In addition, FINN also yields better performance in both convergence speed and network stability.

arxiv情報

著者 Yixin Zhuang
発行日 2022-08-22 16:26:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク