On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model, Data, and Training

要約

タイトル:アスペクトベースの感情分析の堅牢性:モデル、データ、トレーニングの見直し

要約:
– アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューに隠された製品やサービスの特定の面に対する感情極性を自動的に推定することを目的としており、現実の社会において基礎的なアプリケーションである。
– 2010年代初頭以来、ABSAは様々な深層ニューラルモデルによって非常に高い精度を達成してきた。
– しかしながら、現存するABSAモデルは、強力な内部パフォーマンスを持っているものの、一部の状況に対して汎用性に乏しく、現実世界での環境に対する堅牢性に欠けている可能性がある。
– 本研究では、モデル、データ、トレーニングを含むあらゆる角度からボトルネックをシステム的に見直し、ABSAの堅牢性を向上させることを提案している。
– まず、外部の構文依存関係とアスペクトのラベルを同時にユニバーサル構文グラフ畳み込みネットワークでさらに組み込むことにより、現在の最高堅牢な構文意識モデルを強化する。
– コーパスの観点から、さまざまな種類の高品質な合成トレーニングデータを自動的に誘導し、モデルがより高い堅牢性のための十分な帰納バイアスを学習することを提案する。
– 最後に、豊富な擬似データに基づき、コンテキストの摂動に対する耐性を高めるために敵対的なトレーニングを行い、同時に反対の感情を持つインスタンスの表現を強化するために対照的な学習を行う。
– 広範な堅牢性評価が行われ、強化された構文意識モデルがすべての最新のベースラインよりも優れた堅牢性パフォーマンスを達成することが示された。
– さらに、私たちの合成コーパスを追加することで、堅牢なテスト結果は約10%の精度で押し上げられ、高度なトレーニング戦略を導入することでさらに改善された。
– ABSAの堅牢性に影響を与える要因を明らかにするために、詳細な分析が提示されている。

要約(オリジナル)

Aspect-based sentiment analysis (ABSA) aims at automatically inferring the specific sentiment polarities toward certain aspects of products or services behind the social media texts or reviews, which has been a fundamental application to the real-world society. Since the early 2010s, ABSA has achieved extraordinarily high accuracy with various deep neural models. However, existing ABSA models with strong in-house performances may fail to generalize to some challenging cases where the contexts are variable, i.e., low robustness to real-world environments. In this study, we propose to enhance the ABSA robustness by systematically rethinking the bottlenecks from all possible angles, including model, data, and training. First, we strengthen the current best-robust syntax-aware models by further incorporating the rich external syntactic dependencies and the labels with aspect simultaneously with a universal-syntax graph convolutional network. In the corpus perspective, we propose to automatically induce high-quality synthetic training data with various types, allowing models to learn sufficient inductive bias for better robustness. Last, we based on the rich pseudo data perform adversarial training to enhance the resistance to the context perturbation and meanwhile employ contrastive learning to reinforce the representations of instances with contrastive sentiments. Extensive robustness evaluations are conducted. The results demonstrate that our enhanced syntax-aware model achieves better robustness performances than all the state-of-the-art baselines. By additionally incorporating our synthetic corpus, the robust testing results are pushed with around 10% accuracy, which are then further improved by installing the advanced training strategies. In-depth analyses are presented for revealing the factors influencing the ABSA robustness.

arxiv情報

著者 Hao Fei,Tat-Seng Chua,Chenliang Li,Donghong Ji,Meishan Zhang,Yafeng Ren
発行日 2023-04-19 11:07:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク