Defining a New NLP Playground

要約

最近の大規模言語モデル (LLM) のパフォーマンスの爆発的な向上により、自然言語処理 (NLP) の分野は、この分野の 80 年の歴史における他のどの変化よりも急激かつ激変しました。
その結果、この分野が均質化し、リソースが大量に消費されるようになるのではないかという懸念が生じています。
新しい現状により、多くの学術研究者、特に博士課程の学生が不利な状況に置かれています。
この論文は、理論的分析、新しい挑戦的な問題、学習パラダイム、および学際的な応用をカバーする 20 以上の博士論文に値する研究の方向性を提案することにより、新しい NLP の遊び場を定義することを目的としています。

要約(オリジナル)

The recent explosion of performance of large language models (LLMs) has changed the field of Natural Language Processing (NLP) more abruptly and seismically than any other shift in the field’s 80-year history. This has resulted in concerns that the field will become homogenized and resource-intensive. The new status quo has put many academic researchers, especially PhD students, at a disadvantage. This paper aims to define a new NLP playground by proposing 20+ PhD-dissertation-worthy research directions, covering theoretical analysis, new and challenging problems, learning paradigms, and interdisciplinary applications.

arxiv情報

著者 Sha Li,Chi Han,Pengfei Yu,Carl Edwards,Manling Li,Xingyao Wang,Yi R. Fung,Charles Yu,Joel R. Tetreault,Eduard H. Hovy,Heng Ji
発行日 2023-10-31 17:02:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク