Tell Model Where to Attend: Improving Interpretability of Aspect-Based Sentiment Classification via Small Explanation Annotations

要約

勾配ベースの説明方法は、NLP モデルの複雑な深層ニューラル ネットワークを解釈する分野で重要な役割を果たします。
ただし、既存の研究では、モデルの勾配が不安定で簡単に操作できることが示されています。これは、モデルの信頼性に大きな影響を与えます。
予備分析によると、勾配ベースの方法の解釈可能性は、アスペクトベースの感情分類 (ABSC) などの複雑なタスクでは制限されることもわかりました。
この論文では、\textbf{I}interpretation-\textbf{E}nhanced \textbf{G}radient-based framework for \textbf{A}BSC を提案します。
}}。
特に、最初に勾配に基づいて単語レベルの顕著性マップを計算し、特定の側面に対する文内の単語の重要性を測定します。
次に、勾配修正モジュールを設計して、正しい部分 (意見の言葉など) に対するモデルの注意を高めます。
私たちのモデルは、既存の ABSC メソッドや他のタスクに統合できるように、モデルに依存せず、タスクにも依存しません。
4 つのベンチマーク データセットに関する包括的な実験結果は、\texttt{IEGA} がモデルの解釈可能性だけでなく、パフォーマンスとロバスト性も改善できることを示しています。

要約(オリジナル)

Gradient-based explanation methods play an important role in the field of interpreting complex deep neural networks for NLP models. However, the existing work has shown that the gradients of a model are unstable and easily manipulable, which impacts the model’s reliability largely. According to our preliminary analyses, we also find the interpretability of gradient-based methods is limited for complex tasks, such as aspect-based sentiment classification (ABSC). In this paper, we propose an \textbf{I}nterpretation-\textbf{E}nhanced \textbf{G}radient-based framework for \textbf{A}BSC via a small number of explanation annotations, namely \texttt{{IEGA}}. Particularly, we first calculate the word-level saliency map based on gradients to measure the importance of the words in the sentence towards the given aspect. Then, we design a gradient correction module to enhance the model’s attention on the correct parts (e.g., opinion words). Our model is model agnostic and task agnostic so that it can be integrated into the existing ABSC methods or other tasks. Comprehensive experimental results on four benchmark datasets show that our \texttt{IEGA} can improve not only the interpretability of the model but also the performance and robustness.

arxiv情報

著者 Zhenxiao Cheng,Jie Zhou,Wen Wu,Qin Chen,Liang He
発行日 2023-02-21 06:55:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク