Bidirectional Generative Framework for Cross-domain Aspect-based Sentiment Analysis

要約

クロスドメイン アスペクトベースの感情分析 (ABSA) は、ソース ドメインから知識を転送することによって、ターゲット ドメイン上でさまざまなきめの細かい感情分析タスクを実行することを目的としています。
ラベル付きデータはソース ドメインにのみ存在するため、モデルはクロスドメイン ABSA に取り組むためのドメイン ギャップを埋めることが期待されます。
ドメイン適応方法は効果的であることが証明されていますが、そのほとんどは識別モデルに基づいており、さまざまな ABSA タスク向けに特別に設計する必要があります。
より一般的なソリューションを提供するために、さまざまなクロスドメイン ABSA タスクに取り組むための統合された双方向生成フレームワークを提案します。
具体的には、私たちのフレームワークは、テキストからラベルへの方向とラベルからテキストへの方向の両方で生成モデルをトレーニングします。
前者は各タスクを統一フォーマットに変換してドメインに依存しない特徴を学習し、後者はノイズの多いラベルから自然な文を生成してデータを拡張し、より正確なモデルをトレーニングできます。
私たちのフレームワークの有効性と一般性を調査するために、4 つのクロスドメイン ABSA タスクについて広範な実験を実施し、すべてのタスクについて新しい最先端の結果を提示します。
私たちのデータとコードは \url{https://github.com/DAMO-NLP-SG/BGCA} で公開されています。

要約(オリジナル)

Cross-domain aspect-based sentiment analysis (ABSA) aims to perform various fine-grained sentiment analysis tasks on a target domain by transferring knowledge from a source domain. Since labeled data only exists in the source domain, a model is expected to bridge the domain gap for tackling cross-domain ABSA. Though domain adaptation methods have proven to be effective, most of them are based on a discriminative model, which needs to be specifically designed for different ABSA tasks. To offer a more general solution, we propose a unified bidirectional generative framework to tackle various cross-domain ABSA tasks. Specifically, our framework trains a generative model in both text-to-label and label-to-text directions. The former transforms each task into a unified format to learn domain-agnostic features, and the latter generates natural sentences from noisy labels for data augmentation, with which a more accurate model can be trained. To investigate the effectiveness and generality of our framework, we conduct extensive experiments on four cross-domain ABSA tasks and present new state-of-the-art results on all tasks. Our data and code are publicly available at \url{https://github.com/DAMO-NLP-SG/BGCA}.

arxiv情報

著者 Yue Deng,Wenxuan Zhang,Sinno Jialin Pan,Lidong Bing
発行日 2023-05-16 15:02:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク