Improving Social Media Popularity Prediction with Multiple Post Dependencies

要約

ソーシャル メディア人気予測は、レコメンデーション システムやマルチメディア広告など、さまざまなアプリケーションに多大な影響を与えるため、多くの注目を集めています。
ソーシャルメディア投稿のコンテンツを活用して予測精度を向上させる最近の取り組みにもかかわらず、多くの既存モデルは、投稿からコンテンツ情報を包括的に抽出するために重要である投稿間の複数の依存関係を十分に活用できていません。
この問題に取り組むために、ポスト内とポスト間の両方の依存関係を利用する、Dependency-aware Sequence Network (DSN) という名前の新しい予測フレームワークを提案します。
投稿内の依存関係については、DSN は、投稿の画像とテキスト情報からタスク固有の表現を取得するための効率的な微調整戦略を備えたマルチモーダル特徴抽出機能を採用しています。
ポスト間の依存関係については、DSN は階層型情報伝播手法を使用して、ポスト間の違いをより適切に説明できるカテゴリ表現を学習します。
DSN はまた、より柔軟なローカル時間処理能力と長期依存関係に対するマルチヘッド アテンションを実現するために、一連のゲート層を備えたリカレント ネットワークを活用します。
ソーシャルメディア人気データセットの実験結果は、既存の最先端モデルと比較して、私たちの方法の優位性を示しています。

要約(オリジナル)

Social Media Popularity Prediction has drawn a lot of attention because of its profound impact on many different applications, such as recommendation systems and multimedia advertising. Despite recent efforts to leverage the content of social media posts to improve prediction accuracy, many existing models fail to fully exploit the multiple dependencies between posts, which are important to comprehensively extract content information from posts. To tackle this problem, we propose a novel prediction framework named Dependency-aware Sequence Network (DSN) that exploits both intra- and inter-post dependencies. For intra-post dependency, DSN adopts a multimodal feature extractor with an efficient fine-tuning strategy to obtain task-specific representations from images and textual information of posts. For inter-post dependency, DSN uses a hierarchical information propagation method to learn category representations that could better describe the difference between posts. DSN also exploits recurrent networks with a series of gating layers for more flexible local temporal processing abilities and multi-head attention for long-term dependencies. The experimental results on the Social Media Popularity Dataset demonstrate the superiority of our method compared to existing state-of-the-art models.

arxiv情報

著者 Zhizhen Zhang,Xiaohui Xie,Mengyu Yang,Ye Tian,Yong Jiang,Yong Cui
発行日 2023-07-28 09:06:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.MM パーマリンク