要約
複雑な派生語形式の生成は、NLP では見落とされてきた問題です。
ニューラルシーケンスツーシーケンスモデルをタスクに適用することで、このギャップを埋めます。
我々は、導出形態学のパラダイム的扱いに対する理論的動機を概観し、屈折パラダイムの完成と並行して導出パラダイムの完成のタスクを紹介します。
屈折タスクから適応された最先端のニューラル モデルは、さまざまな導出パターンを学習することができ、非ニューラル ベースラインよりも 16.4% 優れたパフォーマンスを発揮します。
ただし、派生形態学には意味論的、歴史的、語彙的な考慮事項が含まれるため、屈折生成システムと同等のパフォーマンスを達成するには将来の作業が必要になります。
要約(オリジナル)
The generation of complex derived word forms has been an overlooked problem in NLP; we fill this gap by applying neural sequence-to-sequence models to the task. We overview the theoretical motivation for a paradigmatic treatment of derivational morphology, and introduce the task of derivational paradigm completion as a parallel to inflectional paradigm completion. State-of-the-art neural models, adapted from the inflection task, are able to learn a range of derivation patterns, and outperform a non-neural baseline by 16.4%. However, due to semantic, historical, and lexical considerations involved in derivational morphology, future work will be needed to achieve performance parity with inflection-generating systems.
arxiv情報
著者 | Ryan Cotterell,Ekaterina Vylomova,Huda Khayrallah,Christo Kirov,David Yarowsky |
発行日 | 2024-08-09 06:44:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google