Going the Extra Mile in Face Image Quality Assessment: A Novel Database and Model

要約

画質評価(IQA)用のコンピュータービジョンモデルは、アーティファクト、ぼやけ、露出不良、色などの一般的な画像劣化の主観的な影響を予測します。
既存のIQAデータセット(10 \%未満)の顔画像の不足により、低品質の顔画像を正確にフィルタリングしたり、超解像、画像強調、生成などの顔画像処理のためにCVモデルをガイドしたりするために必要なIQAの精度が制限されています

このホワイトペーパーでは、まず、さまざまな状況、品質レベル、歪みの種類で、さまざまな個人の20,000人の顔(既存の評価された顔のデータセットすべてよりも1桁大きい)を含む、これまでで最大の注釈付きIQAデータベースを紹介します。
データベースに基づいて、主観的な顔の質を予測するために生成的な事前機能を再利用する、新しい深層学習モデルをさらに提案します。
十分に訓練された生成モデルにエンコードされた豊富な統計を活用することにより、画像の生成事前情報を取得し、それらを潜在的な参照として使用して、ブラインドIQAタスクを容易にします。
実験結果は、顔のIQAタスクで提案されたモデルの優れた予測精度を示しています。

要約(オリジナル)

Computer vision models for image quality assessment (IQA) predict the subjective effect of generic image degradation, such as artefacts, blurs, bad exposure, or colors. The scarcity of face images in existing IQA datasets (below 10\%) is limiting the precision of IQA required for accurately filtering low-quality face images or guiding CV models for face image processing, such as super-resolution, image enhancement, and generation. In this paper, we first introduce the largest annotated IQA database to date that contains 20,000 human faces (an order of magnitude larger than all existing rated datasets of faces), of diverse individuals, in highly varied circumstances, quality levels, and distortion types. Based on the database, we further propose a novel deep learning model, which re-purposes generative prior features for predicting subjective face quality. By exploiting rich statistics encoded in well-trained generative models, we obtain generative prior information of the images and serve them as latent references to facilitate the blind IQA task. Experimental results demonstrate the superior prediction accuracy of the proposed model on the face IQA task.

arxiv情報

著者 Shaolin Su,Hanhe Lin,Vlad Hosu,Oliver Wiedemann,Jinqiu Sun,Yu Zhu,Hantao Liu,Yanning Zhang,Dietmar Saupe
発行日 2022-07-11 14:28:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク