Towards Robust Aspect-based Sentiment Analysis through Non-counterfactual Augmentations

要約

最先端の NLP モデルは、アスペクトベースのセンチメント分析 (ABSA) に対して優れたパフォーマンスを実証していますが、堅牢性が欠けているという実質的な証拠が提示されています。
これは特に、分布外のデータに直面した場合のパフォーマンスの大幅な低下として現れます。
反事実的に強化されたデータセットに依存する最近のソリューションは有望な結果を示していますが、明示的な因果構造にアクセスできないため、本質的に限界があります。
この論文では、非事実的なデータ拡張に依存する代替アプローチを紹介します。
私たちの提案は、代わりに、ターゲットの側面に関連付けられたセマンティクスを保持する、ノイズの多いコスト効率の高いデータ拡張の使用に依存しています。
次に、私たちのアプローチは、堅牢性を向上させるために、データの異なるバージョン間の不変性のモデリングに依存します。
一連の包括的な実験は、私たちの提案が、標準データセットとロバストネス固有のデータセットの両方で事前にトレーニングされた強力なベースラインを大幅に改善していることを示しています。
私たちのアプローチは、ABSA の堅牢性ベンチマークに関する新しい最先端をさらに確立し、ドメイン間で良好に移行します。

要約(オリジナル)

While state-of-the-art NLP models have demonstrated excellent performance for aspect based sentiment analysis (ABSA), substantial evidence has been presented on their lack of robustness. This is especially manifested as significant degradation in performance when faced with out-of-distribution data. Recent solutions that rely on counterfactually augmented datasets show promising results, but they are inherently limited because of the lack of access to explicit causal structure. In this paper, we present an alternative approach that relies on non-counterfactual data augmentation. Our proposal instead relies on using noisy, cost-efficient data augmentations that preserve semantics associated with the target aspect. Our approach then relies on modelling invariances between different versions of the data to improve robustness. A comprehensive suite of experiments shows that our proposal significantly improves upon strong pre-trained baselines on both standard and robustness-specific datasets. Our approach further establishes a new state-of-the-art on the ABSA robustness benchmark and transfers well across domains.

arxiv情報

著者 Xinyu Liu,Yan Ding,Kaikai An,Chunyang Xiao,Pranava Madhyastha,Tong Xiao,Jingbo Zhu
発行日 2023-07-21 01:58:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク