DS$^2$-ABSA: Dual-Stream Data Synthesis with Label Refinement for Few-Shot Aspect-Based Sentiment Analysis

要約

最近開発された大規模言語モデル (LLM) は、リソースが少ないシナリオでのデータ不足に対処するための有望な新しい手段を提供します。
少数ショットのアスペクトベースセンチメント分析 (ABSA) では、これまでの取り組みで、LLM が既存のサンプルを変更して新しいサンプルを生成するよう促すデータ拡張手法が検討されてきました。
しかし、これらの方法では十分に多様なデータを生成できず、その有効性が損なわれています。
さらに、特定の指示といくつかの選択された例をプロンプトとして使用することにより、ABSA のコンテキスト内学習を適用する研究もあります。
LLM は有望ではありますが、タスクの要件から逸脱したラベルを生成することがよくあります。
これらの制限を克服するために、我々は、少数ショット ABSA を対象としたデュアルストリーム データ合成フレームワークである DS$^2$-ABSA を提案します。
LLM を活用して、\textit{キーポイント駆動} と \textit{インスタンス駆動} という 2 つの相補的な観点からデータを合成し、低リソース設定で多様で高品質の ABSA サンプルを効果的に生成します。
さらに、合成ラベルを改善するために \textit{ラベル洗練} モジュールが統合されています。
広範な実験により、DS$^2$-ABSA が以前の数ショット ABSA ソリューションや他の LLM 指向のデータ生成方法よりも大幅に優れていることが実証されました。

要約(オリジナル)

Recently developed large language models (LLMs) have presented promising new avenues to address data scarcity in low-resource scenarios. In few-shot aspect-based sentiment analysis (ABSA), previous efforts have explored data augmentation techniques, which prompt LLMs to generate new samples by modifying existing ones. However, these methods fail to produce adequately diverse data, impairing their effectiveness. Besides, some studies apply in-context learning for ABSA by using specific instructions and a few selected examples as prompts. Though promising, LLMs often yield labels that deviate from task requirements. To overcome these limitations, we propose DS$^2$-ABSA, a dual-stream data synthesis framework targeted for few-shot ABSA. It leverages LLMs to synthesize data from two complementary perspectives: \textit{key-point-driven} and \textit{instance-driven}, which effectively generate diverse and high-quality ABSA samples in low-resource settings. Furthermore, a \textit{label refinement} module is integrated to improve the synthetic labels. Extensive experiments demonstrate that DS$^2$-ABSA significantly outperforms previous few-shot ABSA solutions and other LLM-oriented data generation methods.

arxiv情報

著者 Hongling Xu,Yice Zhang,Qianlong Wang,Ruifeng Xu
発行日 2024-12-19 13:39:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク