Self-training through Classifier Disagreement for Cross-Domain Opinion Target Extraction

要約

オピニオン ターゲット抽出 (OTE) またはアスペクト抽出 (AE) は、意見が表明されたターゲット (またはアスペクト) を抽出することを目的としたオピニオン マイニングの基本的なタスクです。
最近の研究では、クロスドメイン OTE に焦点が当てられています。これは、通常、テストとトレーニングの分布が異なる現実世界のシナリオで発生します。
ほとんどの方法は、ターゲット ドメインのパフォーマンスを向上させるために、ラベル付けされたソース ドメインとラベル付けされていないターゲット ドメインの間のドメイン ギャップを縮小することを目的としたドメイン敵対的ニューラル ネットワークを使用します。
ただし、このアプローチは機能の分布を調整するだけで、クラスごとの機能の調整を考慮していないため、最適ではない結果につながります。
半教師あり学習 (SSL) が解決策として検討されていますが、モデルによって生成される疑似ラベルの品質によって制限されます。
ドメイン適応の理論的基礎 [2] に着想を得て、ターゲットを後押しするために、ドメイン固有の教師と生徒のネットワークからのモデル出力がラベル付けされていないターゲット データで一致しないターゲット サンプルを選択することを選択する、新しい SSL アプローチを提案します。
ドメインのパフォーマンス。
ベンチマーク クロスドメイン OTE データセットでの広範な実験では、このアプローチが効果的であり、大きなドメイン シフトのある設定で一貫して適切に機能することが示されています。

要約(オリジナル)

Opinion target extraction (OTE) or aspect extraction (AE) is a fundamental task in opinion mining that aims to extract the targets (or aspects) on which opinions have been expressed. Recent work focus on cross-domain OTE, which is typically encountered in real-world scenarios, where the testing and training distributions differ. Most methods use domain adversarial neural networks that aim to reduce the domain gap between the labelled source and unlabelled target domains to improve target domain performance. However, this approach only aligns feature distributions and does not account for class-wise feature alignment, leading to suboptimal results. Semi-supervised learning (SSL) has been explored as a solution, but is limited by the quality of pseudo-labels generated by the model. Inspired by the theoretical foundations in domain adaptation [2], we propose a new SSL approach that opts for selecting target samples whose model output from a domain-specific teacher and student network disagree on the unlabelled target data, in an effort to boost the target domain performance. Extensive experiments on benchmark cross-domain OTE datasets show that this approach is effective and performs consistently well in settings with large domain shifts.

arxiv情報

著者 Kai Sun,Richong Zhang,Samuel Mensah,Nikolaos Aletras,Yongyi Mao,Xudong Liu
発行日 2023-02-28 16:31:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク