Natural Language Processing RELIES on Linguistics

要約

大規模言語モデル (LLM) は、文法や意味の一貫性を捉えるために特別に設計されたモジュールを使用せずに、特定の言語で非常に流暢なテキストを生成できるようになりました。
これは、NLP における言語専門知識の将来にとって何を意味しますか?
NLP が (依然として) 言語学に依存しているいくつかの側面、または言語的思考が新しい方向性を明らかにできる側面をいくつか取り上げます。
私たちは、言語学が NLP に貢献する 6 つの主要な側面 ($R$esources、$E$valuation、$L$ow-resource settings、$I$interpretability、$E$xplanation、
言語の$S$勉強。
このリストはすべてを網羅しているわけではありません。また、言語学がこれらのテーマに基づくすべての取り組みの主な参照点であるわけでもありません。
しかし、マクロレベルでは、これらの側面は、人間の言語システムと比較して機械システムを研究することの永続的な重要性を強調しています。

要約(オリジナル)

Large Language Models (LLMs) have become capable of generating highly fluent text in certain languages, without modules specially designed to capture grammar or semantic coherence. What does this mean for the future of linguistic expertise in NLP? We highlight several aspects in which NLP (still) relies on linguistics, or where linguistic thinking can illuminate new directions. We argue our case around the acronym $RELIES$ that encapsulates six major facets where linguistics contributes to NLP: $R$esources, $E$valuation, $L$ow-resource settings, $I$nterpretability, $E$xplanation, and the $S$tudy of language. This list is not exhaustive, nor is linguistics the main point of reference for every effort under these themes; but at a macro level, these facets highlight the enduring importance of studying machine systems vis-a-vis systems of human language.

arxiv情報

著者 Juri Opitz,Shira Wein,Nathan Schneider
発行日 2024-05-09 17:59:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク