要約
劣化要因の組み合わせを持つ画像から鮮明な画像を回復することを学ぶことは、困難な作業です。
そうは言っても、高汚染/煙、大気質指数の低下、低照度、大気散乱、およびブリザード中のもやによって引き起こされる視界の悪い状況での自律監視は、事故を防ぐためにさらに重要になります。
そのため、高品質の画像を生成でき、日常使用に十分な効率性を備えたソリューションを構築することが重要です。
ただし、このタスクに取り組むために利用できる適切なデータセットがないため、提案された以前の方法のパフォーマンスが制限されます。
この目的のために、3647 対の暗いかすんだ画像と鮮明な画像を含む LowVis-AFO データセットを生成します。
また、Low-Visibility Restoration Network (LVRNet) と呼ばれる軽量のディープ ラーニング モデルも紹介します。
低レイテンシで以前の画像復元方法よりも優れており、25.744 の PSNR 値と 0.905 の SSIM を達成し、私たちのアプローチをスケーラブルで実用的なものにします。
コードとデータは https://github.com/Achleshwar/LVRNet にあります。
要約(オリジナル)
Learning to recover clear images from images having a combination of degrading factors is a challenging task. That being said, autonomous surveillance in low visibility conditions caused by high pollution/smoke, poor air quality index, low light, atmospheric scattering, and haze during a blizzard becomes even more important to prevent accidents. It is thus crucial to form a solution that can result in a high-quality image and is efficient enough to be deployed for everyday use. However, the lack of proper datasets available to tackle this task limits the performance of the previous methods proposed. To this end, we generate the LowVis-AFO dataset, containing 3647 paired dark-hazy and clear images. We also introduce a lightweight deep learning model called Low-Visibility Restoration Network (LVRNet). It outperforms previous image restoration methods with low latency, achieving a PSNR value of 25.744 and an SSIM of 0.905, making our approach scalable and ready for practical use. The code and data can be found at https://github.com/Achleshwar/LVRNet.
arxiv情報
著者 | Esha Pahwa,Achleshwar Luthra,Pratik Narang |
発行日 | 2023-01-13 08:43:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google