Enhance Multi-domain Sentiment Analysis of Review Texts through Prompting Strategies

要約

大規模言語モデル (LLM) は、科学研究と実用化の両方で大きな進歩を遂げました。
既存の研究では、さまざまな自然言語処理タスクにおける LLM の最先端 (SOTA) パフォーマンスが実証されています。
しかし、プロンプト戦略を使用して特定のタスクにおける LLM のパフォーマンスをさらに向上させる方法の問題は、依然として極めて重要な懸案事項です。
このペーパーでは、プロンプト戦略の適用によるセンチメント分析における LLM のパフォーマンスの強化について検討します。
感情分析タスクのプロンプトのプロセスを定式化し、感情分析に合わせた 2 つの新しい戦略、ロールプレイング (RP) プロンプトと思考連鎖 (CoT) プロンプトを導入します。
具体的には、RPプロンプトとCoTプロンプトを組み合わせたRP-CoTプロンプト戦略も提案します。
提案されたセンチメント分析戦略の有効性を評価するために、3 つの異なるドメイン データセットに対して比較実験を実施します。
この結果は、提案されたプロンプト戦略の採用により感情分析の精度が向上することを示しています。
さらに、CoT プロンプト戦略は暗黙のセンチメント分析に顕著な影響を及ぼし、RP-CoT プロンプト戦略はすべての戦略の中で最も優れたパフォーマンスを実現します。

要約(オリジナル)

Large Language Models (LLMs) have made significant strides in both scientific research and practical applications. Existing studies have demonstrated the state-of-the-art (SOTA) performance of LLMs in various natural language processing tasks. However, the question of how to further enhance LLMs’ performance in specific task using prompting strategies remains a pivotal concern. This paper explores the enhancement of LLMs’ performance in sentiment analysis through the application of prompting strategies. We formulate the process of prompting for sentiment analysis tasks and introduce two novel strategies tailored for sentiment analysis: RolePlaying (RP) prompting and Chain-of-thought (CoT) prompting. Specifically, we also propose the RP-CoT prompting strategy which is a combination of RP prompting and CoT prompting. We conduct comparative experiments on three distinct domain datasets to evaluate the effectiveness of the proposed sentiment analysis strategies. The results demonstrate that the adoption of the proposed prompting strategies leads to a increasing enhancement in sentiment analysis accuracy. Further, the CoT prompting strategy exhibits a notable impact on implicit sentiment analysis, with the RP-CoT prompting strategy delivering the most superior performance among all strategies.

arxiv情報

著者 Yajing Wang,Zongwei Luo
発行日 2023-09-05 08:44:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク