要約
画像のデモザイクは、デジタル カメラの画像処理パイプラインにおける重要なステップです。
深層学習などのデータ中心のアプローチでは、トレーニングに使用されるデータセットの分布によってネットワークの結果にバイアスがかかる可能性があります。
たとえば、自然画像では、ほとんどのパッチは滑らかで、高コンテンツのパッチは非常にまれです。
これにより、デモザイク アルゴリズムのパフォーマンスに偏りが生じる可能性があります。
ほとんどの深層学習アプローチは、特定の損失を利用したり、特別なネットワーク アーキテクチャを設計したりすることで、この課題に対処しています。
私たちは、トレーニング プロトコルの観点からこの問題に取り組む、新しいアプローチである SDAT (Sub-Dataset Alternation Training) を提案します。
SDAT は 2 つの重要なフェーズで構成されます。
最初の段階では、データセット全体からサブデータセットを作成する方法を採用し、それぞれが明確なバイアスを引き起こします。
後続のフェーズには、データセット全体のトレーニングに加えて、派生したサブデータセットを使用する交互トレーニング プロセスが含まれます。
デモザイク タスクに対して行ったさまざまな実験で実証されているように、SDAT は選択したアーキテクチャに関係なく適用できます。
実験は、さまざまなアーキテクチャのサイズとタイプ、つまり CNN とトランスフォーマーにわたって実行されます。
すべてのケースでパフォーマンスの向上が見られます。
また、非常に人気のある 3 つの画像デモザイク ベンチマークでも最先端の結果を達成できます。
要約(オリジナル)
Image demosaicing is an important step in the image processing pipeline for digital cameras. In data centric approaches, such as deep learning, the distribution of the dataset used for training can impose a bias on the networks’ outcome. For example, in natural images most patches are smooth, and high-content patches are much rarer. This can lead to a bias in the performance of demosaicing algorithms. Most deep learning approaches address this challenge by utilizing specific losses or designing special network architectures. We propose a novel approach, SDAT, Sub-Dataset Alternation Training, that tackles the problem from a training protocol perspective. SDAT is comprised of two essential phases. In the initial phase, we employ a method to create sub-datasets from the entire dataset, each inducing a distinct bias. The subsequent phase involves an alternating training process, which uses the derived sub-datasets in addition to training also on the entire dataset. SDAT can be applied regardless of the chosen architecture as demonstrated by various experiments we conducted for the demosaicing task. The experiments are performed across a range of architecture sizes and types, namely CNNs and transformers. We show improved performance in all cases. We are also able to achieve state-of-the-art results on three highly popular image demosaicing benchmarks.
arxiv情報
著者 | Yuval Becker,Raz Z. Nossek,Tomer Peleg |
発行日 | 2024-02-12 10:04:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google