要約
私たちは、インドのソーシャル メディア プラットフォーム ShareChat から取得した一連のモバイル発信ビデオについて、ユーザー生成モバイル ビデオ コンテンツの知覚品質に関する大規模な主観的研究を実施しました。
制御された実験室条件下でボランティアの被験者が視聴するコンテンツには、ユーザー生成コンテンツ (UGC) ビデオ品質データセットの既存のコーパスを文化的に多様化するという利点があります。
ビジュアル インターネットとソーシャル メディア プラットフォームの世界的な爆発的な成長を考慮すると、大規模で多様な UGC-VQA データセットが非常に必要とされています。
これは、特にインドのような急速に新興経済国において、スマートフォンで取得したビデオに関して特に当てはまります。
ShareChat は、ユーザーが好みのインドの言語や方言でコンテンツを生成して共有できる、安全で文化的なコミュニティ指向のスペースを提供します。
このデータに基づいた当社の主観的な品質調査は、ビデオ品質研究コミュニティに文化的、視覚的、言語の多様化を促進します。
この新しいデータ リソースにより、インドのソーシャル メディア ビデオの視覚品質を予測し、ストリーミングのスケーリングと圧縮プロトコルを制御し、より適切なユーザー推奨を提供し、コンテンツの分析と処理をガイドできるシステムの開発も可能になると期待しています。
私たちは、ビデオ品質を予測するために複数の専門家を配置する MoEVA と呼ばれる新しいモデルを含む、主要なブラインドビデオ品質モデルの調査を実施することにより、新しいデータ リソースの価値を実証します。
新しい LIVE-ShareChat データセットと MoEVA のサンプル ソース コードは両方とも、https://github.com/sandeep-sm/LIVE-SC で研究コミュニティに無料で利用可能です。
要約(オリジナル)
We conducted a large-scale subjective study of the perceptual quality of User-Generated Mobile Video Content on a set of mobile-originated videos obtained from the Indian social media platform ShareChat. The content viewed by volunteer human subjects under controlled laboratory conditions has the benefit of culturally diversifying the existing corpus of User-Generated Content (UGC) video quality datasets. There is a great need for large and diverse UGC-VQA datasets, given the explosive global growth of the visual internet and social media platforms. This is particularly true in regard to videos obtained by smartphones, especially in rapidly emerging economies like India. ShareChat provides a safe and cultural community oriented space for users to generate and share content in their preferred Indian languages and dialects. Our subjective quality study, which is based on this data, offers a boost of cultural, visual, and language diversification to the video quality research community. We expect that this new data resource will also allow for the development of systems that can predict the perceived visual quality of Indian social media videos, to control scaling and compression protocols for streaming, provide better user recommendations, and guide content analysis and processing. We demonstrate the value of the new data resource by conducting a study of leading blind video quality models on it, including a new model, called MoEVA, which deploys a mixture of experts to predict video quality. Both the new LIVE-ShareChat dataset and sample source code for MoEVA are being made freely available to the research community at https://github.com/sandeep-sm/LIVE-SC
arxiv情報
著者 | Sandeep Mishra,Mukul Jha,Alan C. Bovik |
発行日 | 2024-01-05 13:13:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google