Musical ethnocentrism in Large Language Models

要約

大規模言語モデル (LLM) は、トレーニング データのバイアス、ひいてはこのトレーニング データを作成した人のバイアスを反映します。
このようなバイアスを検出、分析、軽減することが研究の焦点になりつつあります。
これまで十分に研究されていないバイアスの 1 つのタイプは、地理文化的バイアスです。
これらは、トレーニング データ内のさまざまな地理的地域や文化の表現の不均衡によって引き起こされる可能性がありますが、そこに含まれる価値判断によっても引き起こされる可能性があります。
この論文では、LLM、特に ChatGPT と Mixtral の音楽バイアスを分析するための第一歩を踏み出します。
2つの実験を行います。
最初のステップでは、LLM に対し、さまざまなカテゴリの「トップ 100」音楽貢献者のリストを提供し、出身国を分析するよう求めます。
2 番目の実験では、LLM に、さまざまな国の音楽文化のさまざまな側面を数値的に評価するよう依頼します。
私たちの結果は、両方の実験において、LLM が西洋音楽文化を強く好むことを示しています。

要約(オリジナル)

Large Language Models (LLMs) reflect the biases in their training data and, by extension, those of the people who created this training data. Detecting, analyzing, and mitigating such biases is becoming a focus of research. One type of bias that has been understudied so far are geocultural biases. Those can be caused by an imbalance in the representation of different geographic regions and cultures in the training data, but also by value judgments contained therein. In this paper, we make a first step towards analyzing musical biases in LLMs, particularly ChatGPT and Mixtral. We conduct two experiments. In the first, we prompt LLMs to provide lists of the ‘Top 100’ musical contributors of various categories and analyze their countries of origin. In the second experiment, we ask the LLMs to numerically rate various aspects of the musical cultures of different countries. Our results indicate a strong preference of the LLMs for Western music cultures in both experiments.

arxiv情報

著者 Anna Kruspe
発行日 2025-01-23 14:50:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS パーマリンク