要約
シーケンスのラベル付けタスクであるアスペクトベースのセンチメント分析 (ABSA) は、多言語のコンテキストでますます注目を集めています。
これまでの研究は主に ABSA に特化したモデルの微調整やトレーニングに焦点を当ててきましたが、私たちはゼロショット条件下で大規模言語モデル (LLM) を評価し、タスク固有の適応を最小限に抑えてこの課題に対処できる可能性を探ります。
私たちは、多言語 ABSA タスクに関する一連の LLM の包括的な実証的評価を実施し、バニラのゼロショット、思考連鎖 (CoT)、自己改善、自己議論、自己一貫性などのさまざまな促進戦略を調査します。
9つの異なるモデル。
結果は、LLM は多言語 ABSA の処理には有望であるものの、一般に、細かく調整されたタスク固有のモデルには及ばないことを示しています。
特に、特に英語のような高リソース言語では、より単純なゼロショット プロンプトがより複雑な戦略よりも優れていることがよくあります。
これらの発見は、多様な言語にわたる ABSA タスクに効果的に対処するには、LLM ベースのアプローチをさらに改良する必要があることを強調しています。
要約(オリジナル)
Aspect-based sentiment analysis (ABSA), a sequence labeling task, has attracted increasing attention in multilingual contexts. While previous research has focused largely on fine-tuning or training models specifically for ABSA, we evaluate large language models (LLMs) under zero-shot conditions to explore their potential to tackle this challenge with minimal task-specific adaptation. We conduct a comprehensive empirical evaluation of a series of LLMs on multilingual ABSA tasks, investigating various prompting strategies, including vanilla zero-shot, chain-of-thought (CoT), self-improvement, self-debate, and self-consistency, across nine different models. Results indicate that while LLMs show promise in handling multilingual ABSA, they generally fall short of fine-tuned, task-specific models. Notably, simpler zero-shot prompts often outperform more complex strategies, especially in high-resource languages like English. These findings underscore the need for further refinement of LLM-based approaches to effectively address ABSA task across diverse languages.
arxiv情報
著者 | Chengyan Wu,Bolei Ma,Zheyu Zhang,Ningyuan Deng,Yanqing He,Yun Xue |
発行日 | 2024-12-24 16:41:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google