Multilingual Language Models are not Multicultural: A Case Study in Emotion

要約

感情の経験や表現方法は世界中で異なります。
感情的な配慮を必要とする多言語タスクに大規模言語モデル (LM) を使用するには、LM は感情におけるこの文化的差異を反映する必要があります。
この研究では、2023 年に広く使用されている多言語 LM が文化や言語間の感情表現の違いを反映しているかどうかを調査します。
LM (例: XLM-RoBERTa) から得られたエンベディングは英国中心的であり、生成型 LM (例: ChatGPT) は、他の言語のプロンプトに応答する場合でも西洋の規範を反映していることがわかりました。
私たちの結果は、多言語を話すLMが文化的に適切な感情のニュアンスをうまく学習していないことを示しており、これを修正するための研究の方向性の可能性を強調しています。

要約(オリジナル)

Emotions are experienced and expressed differently across the world. In order to use Large Language Models (LMs) for multilingual tasks that require emotional sensitivity, LMs must reflect this cultural variation in emotion. In this study, we investigate whether the widely-used multilingual LMs in 2023 reflect differences in emotional expressions across cultures and languages. We find that embeddings obtained from LMs (e.g., XLM-RoBERTa) are Anglocentric, and generative LMs (e.g., ChatGPT) reflect Western norms, even when responding to prompts in other languages. Our results show that multilingual LMs do not successfully learn the culturally appropriate nuances of emotion and we highlight possible research directions towards correcting this.

arxiv情報

著者 Shreya Havaldar,Sunny Rai,Bhumika Singhal,Langchen Liu,Sharath Chandra Guntuku,Lyle Ungar
発行日 2023-07-09 15:21:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク