LIME-Eval: Rethinking Low-light Image Enhancement Evaluation via Object Detection

要約

強調の性質、つまり対になったグラウンドトゥルース情報が存在しないため、最近では、低照度画像強調のパフォーマンスを評価するために高レベルの視覚タスクが使用されています。
広く使用されている方法は、さまざまな候補によって強化された低照度画像でトレーニングされたオブジェクト検出器が、注釈付きの意味ラベルに関してどの程度正確に実行できるかを確認することです。
この論文では、まず、前述のアプローチが一般にオーバーフィッティングの傾向があり、そのため測定の信頼性が低下することを示します。
適切な評価指標を求めて、私たちは LIME-Bench を提案します。これは、低照度補正に対する人間の好みを収集するように設計された初のオンライン ベンチマーク プラットフォームであり、人間の知覚と自動化された評価指標の間の相関関係を検証するための貴重なデータセットを提供します。
次に、オブジェクトの注釈なしで標準照明データセットで事前トレーニングされた検出器を利用する新しい評価フレームワークである LIME-Eval をカスタマイズして、強化された画像の品質を判断します。
出力信頼マップの精度を評価するためにエネルギーベースの戦略を採用することにより、LIME-Eval は検出器の再トレーニングに関連するバイアスをバイパスし、薄暗い画像に対するアノテーションへの依存を同時に回避できます。
LIME-Eval の有効性を明らかにするために、包括的な実験が提供されます。
当社のベンチマーク プラットフォーム (https://huggingface.co/spaces/lime-j/eval) とコード (https://github.com/lime-j/lime-eval) はオンラインで入手できます。

要約(オリジナル)

Due to the nature of enhancement–the absence of paired ground-truth information, high-level vision tasks have been recently employed to evaluate the performance of low-light image enhancement. A widely-used manner is to see how accurately an object detector trained on enhanced low-light images by different candidates can perform with respect to annotated semantic labels. In this paper, we first demonstrate that the mentioned approach is generally prone to overfitting, and thus diminishes its measurement reliability. In search of a proper evaluation metric, we propose LIME-Bench, the first online benchmark platform designed to collect human preferences for low-light enhancement, providing a valuable dataset for validating the correlation between human perception and automated evaluation metrics. We then customize LIME-Eval, a novel evaluation framework that utilizes detectors pre-trained on standard-lighting datasets without object annotations, to judge the quality of enhanced images. By adopting an energy-based strategy to assess the accuracy of output confidence maps, our LIME-Eval can simultaneously bypass biases associated with retraining detectors and circumvent the reliance on annotations for dim images. Comprehensive experiments are provided to reveal the effectiveness of our LIME-Eval. Our benchmark platform (https://huggingface.co/spaces/lime-j/eval) and code (https://github.com/lime-j/lime-eval) are available online.

arxiv情報

著者 Mingjia Li,Hao Zhao,Xiaojie Guo
発行日 2024-10-11 13:47:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク