要約
祖先言語(原始言語)の比較再構築を実施する既存の研究は、通常、完全な監督を必要としていました。
ただし、歴史的再構築モデルは、限られた量のラベル付きデータでトレーニングできる場合にのみ実用的な価値があります。
我々は、少量のラベル付きデータ (プロトフォームを含む同族セット) と大量のラベルなしデータ (プロトフォームを持たない同族セット) のみでモデルをトレーニングする、半教師あり履歴再構成タスクを提案します。
我々は、言語学者の比較手法からの重要な洞察を組み込んだ、比較再構築のためのニューラルアーキテクチャ(DPD-BiReconstructor)を提案します。つまり、再構築された単語は、娘語から再構築可能であるだけでなく、娘語に決定論的に変換可能であるべきであるということです。
このアーキテクチャが、ラベルなしの同族セットを利用して、この新しいタスクにおいて強力な半教師ありベースラインを上回るパフォーマンスを発揮できることを示します。
要約(オリジナル)
Existing work implementing comparative reconstruction of ancestral languages (proto-languages) has usually required full supervision. However, historical reconstruction models are only of practical value if they can be trained with a limited amount of labeled data. We propose a semisupervised historical reconstruction task in which the model is trained on only a small amount of labeled data (cognate sets with proto-forms) and a large amount of unlabeled data (cognate sets without proto-forms). We propose a neural architecture for comparative reconstruction (DPD-BiReconstructor) incorporating an essential insight from linguists’ comparative method: that reconstructed words should not only be reconstructable from their daughter words, but also deterministically transformable back into their daughter words. We show that this architecture is able to leverage unlabeled cognate sets to outperform strong semisupervised baselines on this novel task.
arxiv情報
著者 | Liang Lu,Peirong Xie,David R. Mortensen |
発行日 | 2024-08-12 15:10:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google