Music for All: Representational Bias and Cross-Cultural Adaptability of Music Generation Models

要約

音楽言語モデルの出現により、AIシステムの自動音楽生成能力が大幅に向上しましたが、世界の音楽ジャンルと文化の報道も限られています。
音楽生成に関するデータセットと研究論文の研究を提示し、ジャンルのバイアスと過小評価を定量化します。
既存の音楽データセットの合計時間の5.7%のみが西洋以外のジャンルから来ていることがわかります。
次に、このバイアスを緩和する際に、パラメーター効率の高い微調整(PEFT)技術の有効性を調査します。
Hindustani Classical and Turkish Makam Musicという2つの過小評価されている非西洋の音楽の伝統の2つの人気モデルの2つの人気モデルを使用した実験は、約束を強調し、小さなデータセットを介した音楽のクロスジャンルの適応の非自明性を強調しており、より公平なベースラインの音楽モデルが設計されたより公平なベースラインの音楽モデルの必要性を明確にします。

要約(オリジナル)

The advent of Music-Language Models has greatly enhanced the automatic music generation capability of AI systems, but they are also limited in their coverage of the musical genres and cultures of the world. We present a study of the datasets and research papers for music generation and quantify the bias and under-representation of genres. We find that only 5.7% of the total hours of existing music datasets come from non-Western genres, which naturally leads to disparate performance of the models across genres. We then investigate the efficacy of Parameter-Efficient Fine-Tuning (PEFT) techniques in mitigating this bias. Our experiments with two popular models — MusicGen and Mustango, for two underrepresented non-Western music traditions — Hindustani Classical and Turkish Makam music, highlight the promises as well as the non-triviality of cross-genre adaptation of music through small datasets, implying the need for more equitable baseline music-language models that are designed for cross-cultural transfer learning.

arxiv情報

著者 Atharva Mehta,Shivam Chauhan,Amirbek Djanibekov,Atharva Kulkarni,Gus Xia,Monojit Choudhury
発行日 2025-05-06 09:48:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, cs.MM, cs.SD パーマリンク