The Model Arena for Cross-lingual Sentiment Analysis: A Comparative Study in the Era of Large Language Models

要約

感情分析は、自然言語処理 (NLP) の重要なコンポーネントとして機能します。
XLM-R や mT5 などの多言語事前トレーニング モデルの進歩により、異言語感情分析への関心が高まっています。
最近の大規模言語モデル (LLM) の出現により、一般的な NLP タスクは大幅に進歩しましたが、言語間の感情分析におけるこのような LLM の機能は十分に研究されていません。
この研究では、英語、スペイン語、スペイン語、英語の感情分析の観点から、XLM-R などの公開小規模多言語モデル (SMLM) の言語間転送能力と Llama-3 などの英語中心の LLM を比較する実証分析を行っています。
フランス語と中国語。
私たちの調査結果は、公開モデルの中で、SMLM が LLM と比較して優れたゼロショットクロスリンガルパフォーマンスを示すことを明らかにしました。
ただし、ショット数が少ない異言語設定では、パブリック LLM は適応能力の向上を示します。
さらに、独自の GPT-3.5 と GPT-4 は、ゼロショットのクロスリンガル機能でリードしていますが、数ショットのシナリオでは公開モデルに追い抜かれていることが観察されています。

要約(オリジナル)

Sentiment analysis serves as a pivotal component in Natural Language Processing (NLP). Advancements in multilingual pre-trained models such as XLM-R and mT5 have contributed to the increasing interest in cross-lingual sentiment analysis. The recent emergence in Large Language Models (LLM) has significantly advanced general NLP tasks, however, the capability of such LLMs in cross-lingual sentiment analysis has not been fully studied. This work undertakes an empirical analysis to compare the cross-lingual transfer capability of public Small Multilingual Language Models (SMLM) like XLM-R, against English-centric LLMs such as Llama-3, in the context of sentiment analysis across English, Spanish, French and Chinese. Our findings reveal that among public models, SMLMs exhibit superior zero-shot cross-lingual performance relative to LLMs. However, in few-shot cross-lingual settings, public LLMs demonstrate an enhanced adaptive potential. In addition, we observe that proprietary GPT-3.5 and GPT-4 lead in zero-shot cross-lingual capability, but are outpaced by public models in few-shot scenarios.

arxiv情報

著者 Xiliang Zhu,Shayna Gardiner,Tere Roldán,David Rossouw
発行日 2024-06-27 17:38:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク