要約
魅力的なビデオ コメントは、視聴者の感情、考え、ユーモアを伝えるものであるため、ビデオ ソーシャル メディアにおいて重要な役割を果たします。
予備作業では、キャプション スタイルのエンコーダ/デコーダ モデルを採用することにより、ビデオ コメント生成の初期調査が行われました。
ただし、コメント生成にはキャプション生成とは異なるいくつかの固有の課題があり、そのため、これらの方法は魅力的なコメントを生成する効果が若干低くなります。
キャプションの客観的で説明的な性質とは対照的に、コメントは本質的に主観的な傾向があるため、コメントの関与を定量化して評価することが困難になります。
さらに、真に魅力的なコメントが少ないため、質の高いトレーニング例を十分に収集することが困難になります。
このペーパーでは、魅力的なビデオ コメントを生成するための上記の課題に取り組むための 3 つの新しい設計を備えた ViCo を提案します。
まず、コメントのエンゲージメントを定量化するために、適切なバイアス除去手順の後に、人間の好みの代用として各コメントが受け取る「いいね」の数を利用します。
次に、コメントのエンゲージメントを自動的に評価するために、報酬モデルをトレーニングして、その判断を上記のプロキシに合わせます。
私たちのユーザー調査では、この報酬モデルが人間の判断と効果的に一致していることが示されています。
最後に、高品質のコメントの不足を軽減するために、最初のジェネレーターはすぐに入手できるがノイズの多いデータでトレーニングされてコメントを生成します。
次に、報酬モデルを使用して、生成されたコメントに関するフィードバックを提供し、初期ジェネレーターを最適化します。
ビデオ コメントの研究を促進するために、人気のあるビデオ Web サイトから豊富なメタデータを含む大規模なビデオ コメント データセット (ViCo-20k) を収集します。
ViCo-20k での実験では、ViCo モデルによって生成されたコメントが、特にエンゲージメントを考慮した場合、定量的結果と定性的結果の両方の点で最高のパフォーマンスを示すことがわかりました。
要約(オリジナル)
Engaging video comments play an important role in video social media, as they are the carrier of feelings, thoughts, or humor of the audience. Preliminary works have made initial exploration for video comment generation by adopting caption-style encoder-decoder models. However, comment generation presents some unique challenges distinct from caption generation, which makes these methods somewhat less effective at generating engaging comments. In contrast to the objective and descriptive nature of captions, comments tend to be inherently subjective, making it hard to quantify and evaluate the engagement of comments. Furthermore, the scarcity of truly engaging comments brings difficulty to collecting enough high-quality training examples. In this paper, we propose ViCo with three novel designs to tackle the above challenges for generating engaging Video Comments. Firstly, to quantify the engagement of comments, we utilize the number of ‘likes’ each comment receives as a proxy of human preference after an appropriate debiasing procedure. Secondly, to automatically evaluate the engagement of comments, we train a reward model to align its judgment to the above proxy. Our user studies indicate that this reward model effectively aligns with human judgments. Lastly, to alleviate the scarcity of high-quality comments, an initial generator is trained on readily available but noisy data to generate comments. Then the reward model is employed to offer feedback on the generated comments, thus optimizing the initial generator. To facilitate the research of video commenting, we collect a large video comment-dataset (ViCo-20k) with rich metadata from a popular video website. Experiments on ViCo-20k show that the comments generated by our ViCo model exhibit the best performance in terms of both quantitative and qualitative results, particularly when engagement is considered.
arxiv情報
著者 | Yuchong Sun,Bei Liu,Xu Chen,Ruihua Song,Jianlong Fu |
発行日 | 2023-08-22 04:01:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google