Spectrum-inspired Low-light Image Translation for Saliency Detection

要約

顕著性検出方法は、ロボット ナビゲーションや衛星画像など、いくつかの実世界のアプリケーションの中心となっています。
ただし、トレーニング データセットは主に明るい画像で構成されているため、既存の方法のパフォーマンスは低照度条件下で低下します。
考えられる解決策の 1 つは、低照度条件用の新しいデータセットを収集することです。
これにはピクセルレベルの注釈が含まれますが、これは退屈で時間がかかるだけでなく、巨大なトレーニング コーパスが必要な場合には実行不可能です。
フーリエ空間で古典的なバンドパス フィルタリングを実行して、明るい画像を暗い画像に変換し、それらを実際の暗い画像のプロキシとして使用する手法を提案します。
数千のパラメーターと膨大な量のトレーニング データを学習する必要がある一般的な深層学習アプローチとは異なり、提案された変換は高速かつシンプルであり、低照度深度推定などの他のタスクに簡単に拡張できます。
私たちの実験は、プロキシの低照度画像でトレーニングされた最先端の顕著性検出および深度推定ネットワークが、既存の戦略を使用してトレーニングされたネットワークよりも実際の低照度画像で大幅に優れていることを示しています。

要約(オリジナル)

Saliency detection methods are central to several real-world applications such as robot navigation and satellite imagery. However, the performance of existing methods deteriorate under low-light conditions because training datasets mostly comprise of well-lit images. One possible solution is to collect a new dataset for low-light conditions. This involves pixel-level annotations, which is not only tedious and time-consuming but also infeasible if a huge training corpus is required. We propose a technique that performs classical band-pass filtering in the Fourier space to transform well-lit images to low-light images and use them as a proxy for real low-light images. Unlike popular deep learning approaches which require learning thousands of parameters and enormous amounts of training data, the proposed transformation is fast and simple and easy to extend to other tasks such as low-light depth estimation. Our experiments show that the state-of-the-art saliency detection and depth estimation networks trained on our proxy low-light images perform significantly better on real low-light images than networks trained using existing strategies.

arxiv情報

著者 Kitty Varghese,Sudarshan Rajagopalan,Mohit Lamba,Kaushik Mitra
発行日 2023-03-17 17:30:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク