要約
アスペクトオピニオンペア抽出(AOP)およびアスペクトセンチメントトリプレット抽出(ASTE)は、NLPで注目を集めています。
ただし、ほとんどの既存のアプローチは、アスペクトと意見を独立して抽出し、オプションでペアワイズ関係を追加し、多くの場合、エラーの伝播と高時間の複雑さにつながります。
これらの課題に対処し、遷移ベースの依存関係解析に触発されるために、アスペクトと意見抽出を共同で実行するAOPEとASTEの最初の遷移ベースのモデルを提案します。
バイアス。
コントラストの高い最適化を統合することにより、モデルはより正確なアクション予測を提供し、線形時間で個別のサブタスクを共同で最適化します。
一般的に使用されている4つのASTE/AOPEデータセットでの広範な実験は、以前のモデルよりも単一のデータセットでトレーニングされた場合に悪化している間、私たちのモデルは、組み合わせたデータセットでトレーニングされた場合、ASTEとAOPEの両方で最高のパフォーマンスを達成し、以前のモデルの最強のモデルをアウトパフォームすることを示しています。
F1測定(多くの場合、大きなマージンによる)。
これは、複数のデータセットとドメインからの移行アクションを学習するモデルの能力によるものであると仮定します。
私たちのコードは、https://anonymous.4open.science/r/trans_aste-8fcfで入手できます。
要約(オリジナル)
Aspect-Opinion Pair Extraction (AOPE) and Aspect Sentiment Triplet Extraction (ASTE) have drawn growing attention in NLP. However, most existing approaches extract aspects and opinions independently, optionally adding pairwise relations, often leading to error propagation and high time complexity. To address these challenges and being inspired by transition-based dependency parsing, we propose the first transition-based model for AOPE and ASTE that performs aspect and opinion extraction jointly, which also better captures position-aware aspect-opinion relations and mitigates entity-level bias. By integrating contrastive-augmented optimization, our model delivers more accurate action predictions and jointly optimizes separate subtasks in linear time. Extensive experiments on 4 commonly used ASTE/AOPE datasets show that, while performing worse when trained on a single dataset than some previous models, our model achieves the best performance on both ASTE and AOPE if trained on combined datasets, outperforming the strongest previous models in F1-measures (often by a large margin). We hypothesize that this is due to our model’s ability to learn transition actions from multiple datasets and domains. Our code is available at https://anonymous.4open.science/r/trans_aste-8FCF.
arxiv情報
著者 | Xinmeng Hou,Lingyue Fu,Chenhao Meng,Kounianhua Du,Wuqi Wang,Hai Hu |
発行日 | 2025-02-07 12:12:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google