要約
このペーパーは、CVPR 2024 での画像復元および強化ワークショップ (NTIRE) の新しいトレンドと併せて開催される、AI 生成コンテンツの NTIRE 2024 品質評価チャレンジについて報告します。このチャレンジは、この分野の主要な課題に対処することです。
画像とビデオの処理、つまり AI 生成コンテンツ (AIGC) の画像品質評価 (IQA) とビデオ品質評価 (VQA) です。
チャレンジはイメージトラックとビデオトラックに分かれています。
画像トラックには AIGIQA-20K が使用されており、これには 15 の一般的な生成モデルによって生成された 20,000 個の AI 生成画像 (AIGI) が含まれています。
イメージトラックには合計 318 名の参加者が登録されています。
開発段階では合計 1,646 件の提出があり、テスト段階では 221 件の提出があります。
最後に、16 の参加チームがモデルとファクトシートを提出しました。
ビデオ トラックは T2VQA-DB を使用します。これには、9 つの一般的な Text-to-Video (T2V) モデルによって生成された 10,000 個の AI 生成ビデオ (AIGV) が含まれています。
合計 196 人の参加者がビデオトラックに登録しました。
開発段階では合計 991 件の提出があり、テスト段階では 185 件の提出があります。
最後に、12 の参加チームがモデルとファクトシートを提出しました。
一部のメソッドはベースラインメソッドよりも優れた結果を達成しており、両方のトラックで優れたメソッドは AIGC で優れた予測パフォーマンスを示しています。
要約(オリジナル)
This paper reports on the NTIRE 2024 Quality Assessment of AI-Generated Content Challenge, which will be held in conjunction with the New Trends in Image Restoration and Enhancement Workshop (NTIRE) at CVPR 2024. This challenge is to address a major challenge in the field of image and video processing, namely, Image Quality Assessment (IQA) and Video Quality Assessment (VQA) for AI-Generated Content (AIGC). The challenge is divided into the image track and the video track. The image track uses the AIGIQA-20K, which contains 20,000 AI-Generated Images (AIGIs) generated by 15 popular generative models. The image track has a total of 318 registered participants. A total of 1,646 submissions are received in the development phase, and 221 submissions are received in the test phase. Finally, 16 participating teams submitted their models and fact sheets. The video track uses the T2VQA-DB, which contains 10,000 AI-Generated Videos (AIGVs) generated by 9 popular Text-to-Video (T2V) models. A total of 196 participants have registered in the video track. A total of 991 submissions are received in the development phase, and 185 submissions are received in the test phase. Finally, 12 participating teams submitted their models and fact sheets. Some methods have achieved better results than baseline methods, and the winning methods in both tracks have demonstrated superior prediction performance on AIGC.
arxiv情報
著者 | Xiaohong Liu,Xiongkuo Min,Guangtao Zhai,Chunyi Li,Tengchuan Kou,Wei Sun,Haoning Wu,Yixuan Gao,Yuqin Cao,Zicheng Zhang,Xiele Wu,Radu Timofte,Fei Peng,Huiyuan Fu,Anlong Ming,Chuanming Wang,Huadong Ma,Shuai He,Zifei Dou,Shu Chen,Huacong Zhang,Haiyi Xie,Chengwei Wang,Baoying Chen,Jishen Zeng,Jianquan Yang,Weigang Wang,Xi Fang,Xiaoxin Lv,Jun Yan,Tianwu Zhi,Yabin Zhang,Yaohui Li,Yang Li,Jingwen Xu,Jianzhao Liu,Yiting Liao,Junlin Li,Zihao Yu,Yiting Lu,Xin Li,Hossein Motamednia,S. Farhad Hosseini-Benvidi,Fengbin Guan,Ahmad Mahmoudi-Aznaveh,Azadeh Mansouri,Ganzorig Gankhuyag,Kihwan Yoon,Yifang Xu,Haotian Fan,Fangyuan Kong,Shiling Zhao,Weifeng Dong,Haibing Yin,Li Zhu,Zhiling Wang,Bingchen Huang,Avinab Saha,Sandeep Mishra,Shashank Gupta,Rajesh Sureddi,Oindrila Saha,Luigi Celona,Simone Bianco,Paolo Napoletano,Raimondo Schettini,Junfeng Yang,Jing Fu,Wei Zhang,Wenzhi Cao,Limei Liu,Han Peng,Weijun Yuan,Zhan Li,Yihang Cheng,Yifan Deng,Haohui Li,Bowen Qu,Yao Li,Shuqing Luo,Shunzhou Wang,Wei Gao,Zihao Lu,Marcos V. Conde,Xinrui Wang,Zhibo Chen,Ruling Liao,Yan Ye,Qiulin Wang,Bing Li,Zhaokun Zhou,Miao Geng,Rui Chen,Xin Tao,Xiaoyu Liang,Shangkun Sun,Xingyuan Ma,Jiaze Li,Mengduo Yang,Haoran Xu,Jie Zhou,Shiding Zhu,Bohan Yu,Pengfei Chen,Xinrui Xu,Jiabin Shen,Zhichao Duan,Erfan Asadi,Jiahe Liu,Qi Yan,Youran Qu,Xiaohui Zeng,Lele Wang,Renjie Liao |
発行日 | 2024-05-07 16:13:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google