要約
スタンス検出は、ソーシャル メディアの投稿がワクチンに対する支持など、特定の問題に対して肯定的であるか、否定的であるか、中立的であるかを判断するタスクとして広く研究されています。
しかし、スタンス検出の研究は 1 つの言語に限定されることが多く、複数の言語が研究されている場合、研究は少数ショット設定に焦点を当てており、ゼロショットの異言語スタンス検出モデルを開発するという課題を見落としてきました。
この論文では、ゼロショットの異言語スタンス検出に対する新しいアプローチである多言語翻訳拡張 BERT (MTAB) を導入することで、そのような取り組みを初めて行います。これは、明示的なトレーニング データがない場合に異言語分類器のパフォーマンスを向上させることを目的としています。
ターゲット言語。
私たちの技術では、翻訳拡張を採用してゼロショットのパフォーマンスを向上させ、それを敵対的学習と組み合わせてモデルの有効性をさらに高めます。
英語、ドイツ語、フランス語、イタリア語の 4 か国語でワクチンに対するスタンスをラベル付けしたデータセットの実験を通じて。
私たちは、強力なベースライン モデルおよびモデルのアブレーション バージョンと比較して改善された結果を示し、提案したアプローチの有効性を実証します。
私たちの実験は、モデルのパフォーマンス向上に対するモデル コンポーネント、特に翻訳拡張データと敵対的学習コンポーネントの有効性を実証しています。
ソースコードを GitHub でアクセスできるようにしました。
要約(オリジナル)
Stance detection has been widely studied as the task of determining if a social media post is positive, negative or neutral towards a specific issue, such as support towards vaccines. Research in stance detection has however often been limited to a single language and, where more than one language has been studied, research has focused on few-shot settings, overlooking the challenges of developing a zero-shot cross-lingual stance detection model. This paper makes the first such effort by introducing a novel approach to zero-shot cross-lingual stance detection, Multilingual Translation-Augmented BERT (MTAB), aiming to enhance the performance of a cross-lingual classifier in the absence of explicit training data for target languages. Our technique employs translation augmentation to improve zero-shot performance and pairs it with adversarial learning to further boost model efficacy. Through experiments on datasets labeled for stance towards vaccines in four languages English, German, French, Italian. We demonstrate the effectiveness of our proposed approach, showcasing improved results in comparison to a strong baseline model as well as ablated versions of our model. Our experiments demonstrate the effectiveness of model components, not least the translation-augmented data as well as the adversarial learning component, to the improved performance of the model. We have made our source code accessible on GitHub.
arxiv情報
著者 | Bharathi A,Arkaitz Zubiaga |
発行日 | 2024-04-22 16:56:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google