要約
現在のフルリファレンス画質評価 (FR-IQA) 方法では、参照画像と歪んだ画像の特徴を融合することが多く、色と輝度の歪みは主に低周波数で発生し、エッジとテクスチャの歪みは高周波数で発生することが見落とされています。
この研究では、この制限に対処する新しい知覚劣化モデリング アプローチを活用することで、人間の視覚システム (HVS) に合わせて画質を正確に予測する、トレーニング不要の先駆的な FR-IQA 手法を導入します。
まず、協調的な特徴改善モジュールは、慎重に設計されたウェーブレット変換を採用して、知覚的に関連する特徴を抽出し、マルチスケールの知覚情報をキャプチャし、HVS が空間および周波数領域のさまざまなスケールと方向で視覚情報を分析する方法を模倣します。
2 番目に、ハウスドルフ距離ベースの分布類似性測定モジュールは、基準画像と歪んだ画像の特徴分布間の不一致を確実に評価し、特定レベルの歪みを認識して許容する HVS の能力を模倣しながら、外れ値や変動を効果的に処理します。
提案された方法は、トレーニング データや主観的な品質スコアを必要とせずに、知覚的な品質の違いを正確に捕捉します。
複数のベンチマーク データセットに対する広範な実験により、既存の最先端のアプローチと比較して優れたパフォーマンスが実証され、HVS と強く相関する能力が強調されています。\footnote{コードは \url{https://anonymous.4open.
サイエンス/r/CVPR2025-F339}.}
要約(オリジナル)
Current full-reference image quality assessment (FR-IQA) methods often fuse features from reference and distorted images, overlooking that color and luminance distortions occur mainly at low frequencies, whereas edge and texture distortions occur at high frequencies. This work introduces a pioneering training-free FR-IQA method that accurately predicts image quality in alignment with the human visual system (HVS) by leveraging a novel perceptual degradation modelling approach to address this limitation. First, a collaborative feature refinement module employs a carefully designed wavelet transform to extract perceptually relevant features, capturing multiscale perceptual information and mimicking how the HVS analyses visual information at various scales and orientations in the spatial and frequency domains. Second, a Hausdorff distance-based distribution similarity measurement module robustly assesses the discrepancy between the feature distributions of the reference and distorted images, effectively handling outliers and variations while mimicking the ability of HVS to perceive and tolerate certain levels of distortion. The proposed method accurately captures perceptual quality differences without requiring training data or subjective quality scores. Extensive experiments on multiple benchmark datasets demonstrate superior performance compared with existing state-of-the-art approaches, highlighting its ability to correlate strongly with the HVS.\footnote{The code is available at \url{https://anonymous.4open.science/r/CVPR2025-F339}.}
arxiv情報
著者 | Xuekai Wei,Junyu Zhang,Qinlin Hu,Mingliang Zhou\\Yong Feng,Weizhi Xian,Huayan Pu,Sam Kwong |
発行日 | 2024-12-20 12:39:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google