Evaluating Zero-Shot Multilingual Aspect-Based Sentiment Analysis with Large Language Models

要約

シーケンスラベル付けタスクであるアスペクトベースのセンチメント分析(ABSA)は、多言語のコンテキストで注目を集めています。
以前の研究では、主にABSA専用に微調整またはトレーニングモデルに焦点を当てていましたが、ゼロショット条件下で大規模な言語モデル(LLM)を評価して、タスク固有の最小限の適応でこの課題に取り組む可能性を調査します。
多言語のアブサタスクに関する一連のLLMの包括的な経験的評価を実施し、9つの異なるモデルにわたって、バニラゼロショット、考え方(COT)、自己改善、自己不和、および自己整合など、さまざまなプロンプト戦略を調査します。
結果は、LLMSが多言語ABSAの処理において有望であることを示していますが、一般的には微調整されたタスク固有のモデルには及ばないことを示しています。
特に、より単純なゼロショットプロンプトは、特に英語のような高リソース言語では、より複雑な戦略よりも優れていることがよくあります。
これらの調査結果は、LLMベースのアプローチのさらなる改良の必要性を強調しており、多様な言語全体でABSAタスクに効果的に対処します。

要約(オリジナル)

Aspect-based sentiment analysis (ABSA), a sequence labeling task, has attracted increasing attention in multilingual contexts. While previous research has focused largely on fine-tuning or training models specifically for ABSA, we evaluate large language models (LLMs) under zero-shot conditions to explore their potential to tackle this challenge with minimal task-specific adaptation. We conduct a comprehensive empirical evaluation of a series of LLMs on multilingual ABSA tasks, investigating various prompting strategies, including vanilla zero-shot, chain-of-thought (CoT), self-improvement, self-debate, and self-consistency, across nine different models. Results indicate that while LLMs show promise in handling multilingual ABSA, they generally fall short of fine-tuned, task-specific models. Notably, simpler zero-shot prompts often outperform more complex strategies, especially in high-resource languages like English. These findings underscore the need for further refinement of LLM-based approaches to effectively address ABSA task across diverse languages.

arxiv情報

著者 Chengyan Wu,Bolei Ma,Zheyu Zhang,Ningyuan Deng,Yanqing He,Yun Xue
発行日 2025-06-09 13:09:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク