Less is More: Learning Reference Knowledge Using No-Reference Image Quality Assessment

要約

参照画像を用いた画質評価(IQA)は、人間の視覚システムを模倣することで大きな成功を収めており、クエリ画像とその原始的な参照画像を比較することで画質を効果的に評価する。しかし、野生の画像については、正確な参照画像にアクセスすることは非常に困難である。本論文では、経験的に有効かつ効率的である無参照画質評価(NR-IQA)設定の下で、参照知識を学習することが可能であることを論じる。具体的には、IQAにおける新しい特徴抽出法を革新的に導入することで、非整列参照画像から比較知識を学習する新しい枠組みを提案する。そして、高速な収束を達成し、オーバーフィッティングを回避するために、さらに帰納的バイアス正則化を提案する。このような枠組みは、NR-IQAの先天的な欠点を解決するだけでなく、特徴抽出の枠組みを改善し、より豊富な品質情報を表現することを可能にする。驚くべきことに、我々の手法は教師モデルと比較してより大きな改善を得ながら、より少ない入力を利用する。8つの標準的なNR-IQAデータセットを用いた広範な実験により、PLCC値0.917(LIVECでは0.884)および0.686(LIVEFBでは0.661)を達成するなど、最先端のNR-IQA手法よりも優れた性能が実証された。

要約(オリジナル)

Image Quality Assessment (IQA) with reference images have achieved great success by imitating the human vision system, in which the image quality is effectively assessed by comparing the query image with its pristine reference image. However, for the images in the wild, it is quite difficult to access accurate reference images. We argue that it is possible to learn reference knowledge under the No-Reference Image Quality Assessment (NR-IQA) setting, which is effective and efficient empirically. Concretely, by innovatively introducing a novel feature distillation method in IQA, we propose a new framework to learn comparative knowledge from non-aligned reference images. And then, to achieve fast convergence and avoid overfitting, we further propose an inductive bias regularization. Such a framework not only solves the congenital defects of NR-IQA but also improves the feature extraction framework, enabling it to express more abundant quality information. Surprisingly, our method utilizes less input while obtaining a more significant improvement compared to the teacher models. Extensive experiments on eight standard NR-IQA datasets demonstrate the superior performance to the state-of-the-art NR-IQA methods, i.e., achieving the PLCC values of 0.917 (vs. 0.884 in LIVEC) and 0.686 (vs. 0.661 in LIVEFB).

arxiv情報

著者 Xudong Li,Jingyuan Zheng,Xiawu Zheng,Runze Hu,Enwei Zhang,Yuting Gao,Yunhang Shen,Ke Li,Yutao Liu,Pingyang Dai,Yan Zhang,Rongrong Ji
発行日 2023-12-01 13:56:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク