要約
アスペクトベースの感情分析 (ABSA) サブタスクの命令学習パラダイムである InstructABSA を紹介します。
私たちの手法では、各トレーニング サンプルにポジティブ、ネガティブ、ニュートラルのサンプルを導入し、ABSA サブタスク向けにモデル (Tk-Instruct) を指示調整することで、パフォーマンスが大幅に向上します。
Sem Eval 2014、15、および 16 データセットの実験結果は、InstructABSA が用語抽出 (ATE)、センチメント分類 (ATSC)、およびセンチメント ペア抽出 (ASPE) サブタスクにおいて以前の最先端 (SOTA) アプローチよりも優れていることを示しています。
。
特に、InstructABSA は、Rest14 ATE サブタスクで 5.69% ポイント、Rest15 ATSC サブタスクで 9.59% ポイント、Lapt14 AOPE サブタスクで 3.37% ポイント、以前の最先端 (SOTA) のパフォーマンスを上回り、7 倍の大型モデルを上回っています。
。
また、AOOE、AOPE、および AOSTE サブタスクでも競合する結果が得られ、すべてのサブタスクに対する強力な一般化能力が示されています。
サンプル効率を調査すると、他の命令チューニング手法と競合する結果を得るには、わずか 50% のトレーニング データが必要であることがわかります。
最後に、命令の品質を評価し、誤解を招く例を追加すると、InstructABSA のパフォーマンスが最大 10% 低下することが観察されました。
要約(オリジナル)
We introduce InstructABSA, an instruction learning paradigm for Aspect-Based Sentiment Analysis (ABSA) subtasks. Our method introduces positive, negative, and neutral examples to each training sample, and instruction tune the model (Tk-Instruct) for ABSA subtasks, yielding significant performance improvements. Experimental results on the Sem Eval 2014, 15, and 16 datasets demonstrate that InstructABSA outperforms the previous state-of-the-art (SOTA) approaches on Term Extraction (ATE), Sentiment Classification(ATSC) and Sentiment Pair Extraction (ASPE) subtasks. In particular, InstructABSA outperforms the previous state-of-the-art (SOTA) on the Rest14 ATE subtask by 5.69% points, the Rest15 ATSC subtask by 9.59% points, and the Lapt14 AOPE subtask by 3.37% points, surpassing 7x larger models. We also get competitive results on AOOE, AOPE, and AOSTE subtasks indicating strong generalization ability to all subtasks. Exploring sample efficiency reveals that just 50% train data is required to get competitive results with other instruction tuning approaches. Lastly, we assess the quality of instructions and observe that InstructABSA’s performance experiences a decline of ~10% when adding misleading examples.
arxiv情報
著者 | Kevin Scaria,Himanshu Gupta,Siddharth Goyal,Saurabh Arjun Sawant,Swaroop Mishra,Chitta Baral |
発行日 | 2023-11-13 17:56:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google