要約
大規模言語モデル (LLM) は、文法や意味の一貫性を捉えるために特別に設計されたモジュールを使用せずに、特定の言語で非常に流暢なテキストを生成できるようになりました。
これは、NLP における言語専門知識の将来にとって何を意味しますか?
NLP が (依然として) 言語学に依存しているいくつかの側面、または言語的思考が新しい方向性を明らかにできる側面をいくつか取り上げます。
私たちは、言語学が NLP に貢献する 6 つの主要な側面 (リソース、評価、低リソース設定、解釈可能性、説明、言語の研究) を要約する頭字語 RELIES を中心に主張します。
このリストは網羅的なものではなく、言語学がこれらのテーマに基づくすべての取り組みの主な参照点であるわけでもありません。
しかし、マクロレベルで見ると、これらの側面は、人間の言語システムと比較して機械システムを研究することの永続的な重要性を浮き彫りにしています。
要約(オリジナル)
Large Language Models (LLMs) have become capable of generating highly fluent text in certain languages, without modules specially designed to capture grammar or semantic coherence. What does this mean for the future of linguistic expertise in NLP? We highlight several aspects in which NLP (still) relies on linguistics, or where linguistic thinking can illuminate new directions. We argue our case around the acronym RELIES that encapsulates six major facets where linguistics contributes to NLP: Resources, Evaluation, Low-resource settings, Interpretability, Explanation, and the Study of language. This list is not exhaustive, nor is linguistics the main point of reference for every effort under these themes; but at a macro level, these facets highlight the enduring importance of studying machine systems vis-\`a-vis systems of human language.
arxiv情報
著者 | Juri Opitz,Shira Wein,Nathan Schneider |
発行日 | 2024-09-09 08:21:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google