要約
コードスイッチングは、多言語を話す人が言語をシームレスに切り替える、一般的な言語現象です。
コードスイッチングはオンラインで広く使用されており、この分野の最近の研究傾向にも関わらず、コードスイッチングの研究には特有の課題があり、その主な原因はラベル付きデータと利用可能なリソースの不足にあります。
この研究では、事前トレーニングされた言語モデルがコード スイッチ テキストをどのように 3 次元で処理するかを調査します。a) コード スイッチ テキストを検出する PLM の機能、b) コード スイッチ テキストをキャプチャするために PLM が利用する構造情報の変化、
c) コード交換テキストにおける意味情報表現の一貫性。
問題の言語モデルの系統的かつ制御された評価を行うために、ソース言語への対訳とともに、整形式の自然主義的なコードスイッチテキストの新しいデータセットを作成します。
私たちの調査結果は、事前トレーニングされた言語モデルがコード交換テキストに一般化するのに効果的であることを明らかにし、CS コーパスに表現を一般化するこれらのモデルの能力を明らかにします。
私たちは、小説コーパスを含むすべてのコードとデータを https://github.com/francesita/code-mixed-probes で公開しています。
要約(オリジナル)
Code-switching is a prevalent linguistic phenomenon in which multilingual individuals seamlessly alternate between languages. Despite its widespread use online and recent research trends in this area, research in code-switching presents unique challenges, primarily stemming from the scarcity of labelled data and available resources. In this study we investigate how pre-trained Language Models handle code-switched text in three dimensions: a) the ability of PLMs to detect code-switched text, b) variations in the structural information that PLMs utilise to capture code-switched text, and c) the consistency of semantic information representation in code-switched text. To conduct a systematic and controlled evaluation of the language models in question, we create a novel dataset of well-formed naturalistic code-switched text along with parallel translations into the source languages. Our findings reveal that pre-trained language models are effective in generalising to code-switched text, shedding light on the abilities of these models to generalise representations to CS corpora. We release all our code and data including the novel corpus at https://github.com/francesita/code-mixed-probes.
arxiv情報
著者 | Frances A. Laureano De Leon,Harish Tayyar Madabushi,Mark Lee |
発行日 | 2024-05-07 16:38:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google