Deep Internal Learning: Deep Learning from a Single Input

要約

一般に、ディープ ラーニングは、大規模なラベル付きデータセットからニューラル ネットワークをトレーニングすることに重点を置いています。
しかし、多くの場合、手元の入力だけからネットワークをトレーニングすることに価値があります。
これは、トレーニング データが不足し多様性が大きい一方で、悪用できるデータ構造が多数存在する多くの信号および画像処理の問題に特に関係します。
この情報の使用は、深い内部学習戦略の鍵となります。これには、単一の入力を使用してネットワークを最初からトレーニングすることや、推論時に提供された入力例にトレーニング済みのネットワークを適応させることが含まれる場合があります。
この調査報告書は、これら 2 つの重要な方向性に関して過去数年間に提案されてきた深い内部学習手法をカバーすることを目的としています。
私たちの主な焦点は画像処理の問題ですが、調査するアプローチのほとんどは一般的な信号 (ノイズと区別できる繰り返しパターンを持つベクトル) に対して導出されているため、他のモダリティにも適用できます。

要約(オリジナル)

Deep learning, in general, focuses on training a neural network from large labeled datasets. Yet, in many cases there is value in training a network just from the input at hand. This is particularly relevant in many signal and image processing problems where training data is scarce and diversity is large on the one hand, and on the other, there is a lot of structure in the data that can be exploited. Using this information is the key to deep internal-learning strategies, which may involve training a network from scratch using a single input or adapting an already trained network to a provided input example at inference time. This survey paper aims at covering deep internal-learning techniques that have been proposed in the past few years for these two important directions. While our main focus will be on image processing problems, most of the approaches that we survey are derived for general signals (vectors with recurring patterns that can be distinguished from noise) and are therefore applicable to other modalities.

arxiv情報

著者 Tom Tirer,Raja Giryes,Se Young Chun,Yonina C. Eldar
発行日 2024-04-08 16:56:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV, eess.SP パーマリンク