要約
今日、人類は自発的なストリーミング サービスやコマーシャルの休憩中の偶然の出会いなどを通じて、常に音楽に触れています。
音楽が豊富であるにもかかわらず、特定の曲はより記憶に残り、より大きな人気を得ることがよくあります。
この現象に触発されて、私たちは音楽の記憶力の測定と予測に焦点を当てています。
これを達成するために、新しいインタラクティブな実験手順を使用して、信頼性の高い記憶性ラベルを持つ新しい楽曲データセットを収集します。
次に、解釈可能な特徴とオーディオ メル スペクトログラムの両方を入力として活用して、音楽の記憶に残りやすいものを予測および分析するためにベースラインをトレーニングします。
私たちの知る限り、私たちはデータ駆動型の深層学習ベースの手法を使用して音楽の記憶に残ることを初めて研究しました。
一連の実験とアブレーション研究を通じて、改善の余地はあるものの、限られたデータで音楽の記憶力を予測することは可能であることを実証しました。
より高い価数、興奮、より速いテンポなどの特定の固有の要素は、記憶に残る音楽に貢献します。
予測技術が進化し続けるにつれて、音楽推奨システムや音楽スタイルの転送などの現実のアプリケーションが、この新しい研究分野から恩恵を受けることは間違いありません。
要約(オリジナル)
Nowadays, humans are constantly exposed to music, whether through voluntary streaming services or incidental encounters during commercial breaks. Despite the abundance of music, certain pieces remain more memorable and often gain greater popularity. Inspired by this phenomenon, we focus on measuring and predicting music memorability. To achieve this, we collect a new music piece dataset with reliable memorability labels using a novel interactive experimental procedure. We then train baselines to predict and analyze music memorability, leveraging both interpretable features and audio mel-spectrograms as inputs. To the best of our knowledge, we are the first to explore music memorability using data-driven deep learning-based methods. Through a series of experiments and ablation studies, we demonstrate that while there is room for improvement, predicting music memorability with limited data is possible. Certain intrinsic elements, such as higher valence, arousal, and faster tempo, contribute to memorable music. As prediction techniques continue to evolve, real-life applications like music recommendation systems and music style transfer will undoubtedly benefit from this new area of research.
arxiv情報
著者 | Li-Yang Tseng,Tzu-Ling Lin,Hong-Han Shuai,Jen-Wei Huang,Wen-Whei Chang |
発行日 | 2024-05-21 14:57:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google