要約
一般にディープ ラーニングは、大規模なラベル付きデータセットからニューラル ネットワークをトレーニングすることに重点を置いています。
しかし、多くの場合、手元の入力だけからネットワークをトレーニングすることに価値があります。
これには、単一の入力を使用してネットワークを最初からトレーニングするか、推論時に提供された入力例にすでにトレーニング済みのネットワークを適応させることが含まれる場合があります。
この調査報告書は、これら 2 つの重要な方向性に関して過去数年間に提案されてきた深い内部学習手法をカバーすることを目的としています。
私たちの主な焦点は画像処理の問題ですが、調査するアプローチのほとんどは一般的な信号 (ノイズと区別できる繰り返しパターンを持つベクトル) に対して導出されているため、他のモダリティにも適用できます。
私たちは、トレーニング データが不足し多様性が大きい一方で、データ内に学習可能な構造が多数存在する多くの信号および画像処理の問題において、内部学習のトピックが非常に重要であると考えています。
搾取された。
要約(オリジナル)
Deep learning in general focuses on training a neural network from large labeled datasets. Yet, in many cases there is value in training a network just from the input at hand. This may involve training a network from scratch using a single input or adapting an already trained network to a provided input example at inference time. This survey paper aims at covering deep internal-learning techniques that have been proposed in the past few years for these two important directions. While our main focus will be on image processing problems, most of the approaches that we survey are derived for general signals (vectors with recurring patterns that can be distinguished from noise) and are therefore applicable to other modalities. We believe that the topic of internal-learning is very important in many signal and image processing problems where training data is scarce and diversity is large on the one hand, and on the other, there is a lot of structure in the data that can be exploited.
arxiv情報
著者 | Tom Tirer,Raja Giryes,Se Young Chun,Yonina C. Eldar |
発行日 | 2023-12-12 16:48:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google