BNS-Net: A Dual-channel Sarcasm Detection Method Considering Behavior-level and Sentence-level Conflicts

要約

皮肉検出は、特定の発話が皮肉であるかどうかを判断することを目的としたバイナリ分類タスクです。
過去 10 年にわたり、皮肉の検出は古典的なパターン認識から深層学習アプローチに進化し、ユーザー プロフィール、句読点、センチメント ワードなどの機能が皮肉の検出に一般的に使用されてきました。
現実の皮肉な表現では、明示的な感情的な手がかりのない行動が、暗黙的な感情的な意味を伝える役割を果たすことがよくあります。
この観察に動機付けられて、私たちは BNS-Net という名前のデュアルチャネル皮肉検出モデルを提案しました。
このモデルは、2 つのチャネルでの動作と文の衝突を考慮します。
チャネル 1: 行動レベルの競合チャネルは、修正されたアテンション メカニズムを利用して競合情報を強調表示しながら、コア動詞に基づいてテキストを再構築します。
チャネル 2: 文レベルの競合チャネルでは、外部の感情知識を導入して、テキストを明示的な文と暗黙的な文に分割し、それらの間の矛盾をキャプチャします。
BNS-Net の有効性を検証するために、3 つの公開皮肉データセットに対していくつかの比較実験とアブレーション実験が行われます。
実験結果の分析と評価により、BNS-Net がテキスト内の皮肉を効果的に識別し、最先端のパフォーマンスを達成していることが実証されました。

要約(オリジナル)

Sarcasm detection is a binary classification task that aims to determine whether a given utterance is sarcastic. Over the past decade, sarcasm detection has evolved from classical pattern recognition to deep learning approaches, where features such as user profile, punctuation and sentiment words have been commonly employed for sarcasm detection. In real-life sarcastic expressions, behaviors without explicit sentimental cues often serve as carriers of implicit sentimental meanings. Motivated by this observation, we proposed a dual-channel sarcasm detection model named BNS-Net. The model considers behavior and sentence conflicts in two channels. Channel 1: Behavior-level Conflict Channel reconstructs the text based on core verbs while leveraging the modified attention mechanism to highlight conflict information. Channel 2: Sentence-level Conflict Channel introduces external sentiment knowledge to segment the text into explicit and implicit sentences, capturing conflicts between them. To validate the effectiveness of BNS-Net, several comparative and ablation experiments are conducted on three public sarcasm datasets. The analysis and evaluation of experimental results demonstrate that the BNS-Net effectively identifies sarcasm in text and achieves the state-of-the-art performance.

arxiv情報

著者 Liming Zhou,Xiaowei Xu,Xiaodong Wang
発行日 2023-09-07 11:55:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク