要約
(ノイズの多い) 画像の測定値をクリーンな画像にマッピングするためにエンドツーエンドでトレーニングされたディープ ニューラル ネットワークは、さまざまな線形逆問題に対して優れたパフォーマンスを発揮します。
現在の方法は、数百または数千の画像でのみトレーニングされますが、他のドメインでディープ ネットワークがトレーニングされる数百万のサンプルとは対照的です。
この作業では、トレーニング セットのサイズを拡大することでパフォーマンスが大幅に向上するかどうかを調べます。
画像のノイズ除去、加速された磁気共鳴画像法、超解像を考慮し、再構築の品質をトレーニング セットのサイズの関数として経験的に決定すると同時に、ネットワークのサイズをスケーリングします。
3 つのすべてのタスクで、最初は急なベキ乗法スケーリングが、中程度のトレーニング セット サイズで既に大幅に遅くなることがわかりました。
これらのスケーリングの法則を補間すると、何百万もの画像をトレーニングしてもパフォーマンスが大幅に向上しないことが示唆されます。
予想される動作を理解するために、勾配降下を早期に停止して学習した線形推定器のパフォーマンスを分析的に特徴付けます。
この結果は、信号モデルの学習によって引き起こされるエラーがエラー フロアに比べて小さくなると、トレーニング例を増やしてもパフォーマンスが向上しないという直観を定式化したものです。
要約(オリジナル)
Deep neural networks trained end-to-end to map a measurement of a (noisy) image to a clean image perform excellent for a variety of linear inverse problems. Current methods are only trained on a few hundreds or thousands of images as opposed to the millions of examples deep networks are trained on in other domains. In this work, we study whether major performance gains are expected from scaling up the training set size. We consider image denoising, accelerated magnetic resonance imaging, and super-resolution and empirically determine the reconstruction quality as a function of training set size, while simultaneously scaling the network size. For all three tasks we find that an initially steep power-law scaling slows significantly already at moderate training set sizes. Interpolating those scaling laws suggests that even training on millions of images would not significantly improve performance. To understand the expected behavior, we analytically characterize the performance of a linear estimator learned with early stopped gradient descent. The result formalizes the intuition that once the error induced by learning the signal model is small relative to the error floor, more training examples do not improve performance.
arxiv情報
著者 | Tobit Klug,Reinhard Heckel |
発行日 | 2023-02-23 13:31:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google