Emotion-aware Personalized Music Recommendation with a Heterogeneity-aware Deep Bayesian Network

要約

音楽レコメンダー システムは、ユーザーが楽しみそうな音楽を提供することで、音楽ストリーミング プラットフォームで重要な役割を果たします。
最近の研究では、ユーザーの感情が音楽の雰囲気に対するユーザーの好みに影響を与える可能性があることがわかっています。
しかし、既存の感情認識音楽レコメンダー システム (EMRS) は、明示的または暗黙的に、同一の感情的な言葉によって表現されるユーザーの実際の感情状態は同質であると想定しています。
彼らはまた、同じ感情状態の下ではユーザーの音楽気分の好みが均一であると仮定しています。
この記事では、EMRS が考慮すべき 4 つのタイプの異質性を提案します。ユーザー間の感情の異質性、ユーザー内の感情の異質性、ユーザー間の音楽の気分の好みの異質性、およびユーザー内の音楽の気分の好みの異質性です。
さらに、これらの仮定をモデル化するために、異質性を認識したディープ ベイジアン ネットワーク (HDBN) を提案します。
HDBN は、パーソナライズされた事前ユーザー感情分布モデリング、事後ユーザー感情分布モデリング、ユーザー グループ化、およびベイジアン ニューラル ネットワーク ベースの音楽気分嗜好予測の 4 つのコンポーネントで、音楽を選択するユーザーの意思決定プロセスを模倣します。
私たちは、方法を検証するために、EmoMusicLJ と EmoMusicLJ-small という 2 つのデータセットを構築しました。
広範な実験により、私たちの方法がHR、精度、NDCG、MRRの指標に関してベースラインアプローチよりも大幅に優れていることが実証されました。
アブレーション研究とケーススタディにより、当社の HDBN の有効性がさらに検証されています。
ソース コードとデータセットは https://github.com/jingrk/HDBN で入手できます。

要約(オリジナル)

Music recommender systems play a critical role in music streaming platforms by providing users with music that they are likely to enjoy. Recent studies have shown that user emotions can influence users’ preferences for music moods. However, existing emotion-aware music recommender systems (EMRSs) explicitly or implicitly assume that users’ actual emotional states expressed through identical emotional words are homogeneous. They also assume that users’ music mood preferences are homogeneous under the same emotional state. In this article, we propose four types of heterogeneity that an EMRS should account for: emotion heterogeneity across users, emotion heterogeneity within a user, music mood preference heterogeneity across users, and music mood preference heterogeneity within a user. We further propose a Heterogeneity-aware Deep Bayesian Network (HDBN) to model these assumptions. The HDBN mimics a user’s decision process of choosing music with four components: personalized prior user emotion distribution modeling, posterior user emotion distribution modeling, user grouping, and Bayesian neural network-based music mood preference prediction. We constructed two datasets, called EmoMusicLJ and EmoMusicLJ-small, to validate our method. Extensive experiments demonstrate that our method significantly outperforms baseline approaches on metrics of HR, Precision, NDCG, and MRR. Ablation studies and case studies further validate the effectiveness of our HDBN. The source code and datasets are available at https://github.com/jingrk/HDBN.

arxiv情報

著者 Erkang Jing,Yezheng Liu,Yidong Chai,Shuo Yu,Longshun Liu,Yuanchun Jiang,Yang Wang
発行日 2024-11-29 13:43:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク