要約
近年、効果的な画像事前分布と深層学習モデルのおかげで、画像のディレイン化が大幅に進歩しました。
それぞれの脱レインアプローチには個別の設定 (トレーニングおよびテストのデータセット、評価基準など) があるため、既存のアプローチを総合的に公平に評価する方法は簡単な作業ではありません。
既存の調査は、画像ディレイニングのアプローチを包括的にレビューすることを目的としていますが、ディレイニング能力と実用性の評価を調べるための統一された評価設定の提供に焦点を当てている調査はほとんどありません。
このペーパーでは、既存の画像ディレイニング手法を包括的にレビューし、画像ディレイニング手法のパフォーマンスを評価するための統合評価設定を提供します。
さらに広範な評価を行うために、より調和とリアリティを備えた 5,000 ペアの高解像度合成画像から構成される、HQ-RAIN と呼ばれる新しい高品質ベンチマークを構築します。
また、既存の課題についても説明し、検討する価値のある将来の研究の機会をいくつか紹介します。
一般ユーザー向けに最新のディレイニング技術の再現と追跡を容易にするために、大規模な性能評価を含む既製のツールキットを提供するオンラインプラットフォームを構築します。
このオンライン プラットフォームと提案された新しいベンチマークは一般に公開されており、http://www.derraining.tech/ で定期的に更新されます。
要約(オリジナル)
Recent years have witnessed significant advances in image deraining due to the kinds of effective image priors and deep learning models. As each deraining approach has individual settings (e.g., training and test datasets, evaluation criteria), how to fairly evaluate existing approaches comprehensively is not a trivial task. Although existing surveys aim to review of image deraining approaches comprehensively, few of them focus on providing unify evaluation settings to examine the deraining capability and practicality evaluation. In this paper, we provide a comprehensive review of existing image deraining method and provide a unify evaluation setting to evaluate the performance of image deraining methods. We construct a new high-quality benchmark named HQ-RAIN to further conduct extensive evaluation, consisting of 5,000 paired high-resolution synthetic images with higher harmony and realism. We also discuss the existing challenges and highlight several future research opportunities worth exploring. To facilitate the reproduction and tracking of the latest deraining technologies for general users, we build an online platform to provide the off-the-shelf toolkit, involving the large-scale performance evaluation. This online platform and the proposed new benchmark are publicly available and will be regularly updated at http://www.deraining.tech/.
arxiv情報
著者 | Xiang Chen,Jinshan Pan,Jiangxin Dong,Jinhui Tang |
発行日 | 2023-10-05 13:35:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google