Solving Inverse Problems with Hybrid Deep Image Priors: the challenge of preventing overfitting

要約

主に、ディープ イメージ プライア (DIP) のオーバーフィッティング問題を分析して解決します。
ディープ イメージ プライアは、超解像、修復、ノイズ除去などの逆問題を解決できます。
他の深層学習アプローチに対する DIP の主な利点は、大規模なデータセットにアクセスする必要がないことです。
ただし、ニューラル ネットワークのパラメーターの数が多く、データにノイズが多いため、DIP は反復回数が増えるにつれて画像のノイズに過適合します。
論文では、過適合を避けるために、ハイブリッド ディープ イメージ プライアを使用します。
ハイブリッド事前確率は、DIP を全変動などの明示的な事前確率、またはノイズ除去アルゴリズムなどの暗黙的な事前確率と組み合わせることです。
交互方向乗数法 (ADMM) を使用して新しい事前確率を組み込み、ADMM のさまざまな形式を試して、ADMM ステップの内部ループによって引き起こされる余分な計算を回避します。
また、勾配降下のダイナミクスとオーバーフィッティング現象との関係についても研究しています。
数値結果は、ハイブリッド事前確率がオーバーフィッティングの防止に重要な役割を果たすことを示しています。
さらに、いくつかの方向に沿って画像を適合させようと試みたところ、ノイズ レベルが大きい場合に、この方法で過適合を減らすことができることがわかりました。
ノイズ レベルが小さい場合、オーバーフィッティングの問題はあまり軽減されません。

要約(オリジナル)

We mainly analyze and solve the overfitting problem of deep image prior (DIP). Deep image prior can solve inverse problems such as super-resolution, inpainting and denoising. The main advantage of DIP over other deep learning approaches is that it does not need access to a large dataset. However, due to the large number of parameters of the neural network and noisy data, DIP overfits to the noise in the image as the number of iterations grows. In the thesis, we use hybrid deep image priors to avoid overfitting. The hybrid priors are to combine DIP with an explicit prior such as total variation or with an implicit prior such as a denoising algorithm. We use the alternating direction method-of-multipliers (ADMM) to incorporate the new prior and try different forms of ADMM to avoid extra computation caused by the inner loop of ADMM steps. We also study the relation between the dynamics of gradient descent, and the overfitting phenomenon. The numerical results show the hybrid priors play an important role in preventing overfitting. Besides, we try to fit the image along some directions and find this method can reduce overfitting when the noise level is large. When the noise level is small, it does not considerably reduce the overfitting problem.

arxiv情報

著者 Zhaodong Sun,Thomas Sanchez,Fabian Latorre,Volkan Cevher
発行日 2023-02-17 16:55:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク