要約
画像のかすみ除去は、特に学習ベースの方法を使用した場合、実世界のアプリケーションにおける重要性から大きな注目を集めています。
ただし、RGB 色空間のみに依存すると不十分な場合が多く、かすみが残ることがよくあります。
これは 2 つの主な問題から生じます。1 つはかすんだ RGB 画像から明確なテクスチャ特徴を取得することの難しさ、もう 1 つは煙で満たされたシーンなどの制御された環境の外で実際のかすんだ画像ときれいな画像のペアを取得する複雑さです。
これらの問題に対処するために、私たちはまず、RGB よりも優れた YCbCr 機能の構造特性を活用する新しい構造誘導かすみ除去ネットワーク (SGDN) を提案します。
これは、Bi-Color Guide Bridge (BGB) と Color Enhancement Module (CEM) という 2 つの主要モジュールで構成されています。
BGB は、位相統合モジュールとインタラクティブ アテンション モジュールを統合し、YCbCr 空間の豊富なテクスチャ機能を利用して RGB 空間をガイドし、それによって周波数領域と空間領域の両方でより鮮明な特徴を回復します。
色調の一貫性を維持するために、CEM は YCbCr チャネル情報を集約することで RGB 特徴の色の認識をさらに強化します。
さらに、効果的な教師あり学習のために、さまざまな地理的地域や気候条件の多様なシーンを含む Real-World Well-Aligned Haze (RW$^2$AH) データセットを導入します。
実験結果は、複数の実世界の煙/もやデータセットにわたって、私たちの方法が既存の最先端の方法を上回っていることを示しています。
コードとデータセット: \textcolor{blue}{\url{https://github.com/fiwy0527/AAAI25_SGDN.}}
要約(オリジナル)
Image dehazing, particularly with learning-based methods, has gained significant attention due to its importance in real-world applications. However, relying solely on the RGB color space often fall short, frequently leaving residual haze. This arises from two main issues: the difficulty in obtaining clear textural features from hazy RGB images and the complexity of acquiring real haze/clean image pairs outside controlled environments like smoke-filled scenes. To address these issues, we first propose a novel Structure Guided Dehazing Network (SGDN) that leverages the superior structural properties of YCbCr features over RGB. It comprises two key modules: Bi-Color Guidance Bridge (BGB) and Color Enhancement Module (CEM). BGB integrates a phase integration module and an interactive attention module, utilizing the rich texture features of the YCbCr space to guide the RGB space, thereby recovering clearer features in both frequency and spatial domains. To maintain tonal consistency, CEM further enhances the color perception of RGB features by aggregating YCbCr channel information. Furthermore, for effective supervised learning, we introduce a Real-World Well-Aligned Haze (RW$^2$AH) dataset, which includes a diverse range of scenes from various geographical regions and climate conditions. Experimental results demonstrate that our method surpasses existing state-of-the-art methods across multiple real-world smoke/haze datasets. Code and Dataset: \textcolor{blue}{\url{https://github.com/fiwy0527/AAAI25_SGDN.}}
arxiv情報
著者 | Wenxuan Fang,Junkai Fan,Yu Zheng,Jiangwei Weng,Ying Tai,Jun Li |
発行日 | 2024-12-24 14:18:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google