Multi-Scale and Multi-Objective Optimization for Cross-Lingual Aspect-Based Sentiment Analysis

要約

アスペクトベースのセンチメント分析(ABSA)は、多言語のコンテキストでの研究関心の高まりを獲得したシーケンスラベル付けタスクです。
ただし、最近の研究には、より堅牢な特徴アライメントとより細かいアスペクトレベルのアラインメントがありません。
この論文では、横断的ABSAのための新しいフレームワーク、マルチスケールおよび多目的最適化(MSMO)を提案します。
マルチスケールのアライメント中に、異なる文化レベルとアスペクトレベルのアラインメントを実現し、異なるコンテキスト環境でアスペクト用語の機能を調整します。
具体的には、モデルの堅牢性を高めるために、コードスイッチのバイリンガル文を言語差別装置と一貫性トレーニングモジュールに紹介します。
多目的最適化中に、2つの最適化目標を設計します。監視されたトレーニングと一貫性トレーニングを目指して、間違ったセマンティックアライメントを強化することを目指しています。
モデルのパフォーマンスをさらに向上させるために、ターゲット言語の蒸留知識をモデルに組み込みます。
結果は、MSMOが複数の言語とモデルで最先端のパフォーマンスを達成することにより、言語間ABSAを大幅に強化することを示しています。

要約(オリジナル)

Aspect-based sentiment analysis (ABSA) is a sequence labeling task that has garnered growing research interest in multilingual contexts. However, recent studies lack more robust feature alignment and finer aspect-level alignment. In this paper, we propose a novel framework, Multi-Scale and Multi-Objective optimization (MSMO) for cross-lingual ABSA. During multi-scale alignment, we achieve cross-lingual sentence-level and aspect-level alignment, aligning features of aspect terms in different contextual environments. Specifically, we introduce code-switched bilingual sentences into the language discriminator and consistency training modules to enhance the model’s robustness. During multi-objective optimization, we design two optimization objectives: supervised training and consistency training, aiming to enhance cross-lingual semantic alignment. To further improve model performance, we incorporate distilled knowledge of the target language into the model. Results show that MSMO significantly enhances cross-lingual ABSA by achieving state-of-the-art performance across multiple languages and models.

arxiv情報

著者 Chengyan Wu,Bolei Ma,Ningyuan Deng,Yanqing He,Yun Xue
発行日 2025-02-19 13:43:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク