要約
言語モデリングは、テキストの文字列上の確率分布を研究する。自然言語処理(NLP)における最も基本的なタスクのひとつである。テキスト生成、音声認識、機械翻訳などで広く利用されている。従来の言語モデル(CLM)は、因果的な方法で言語系列の確率を予測することを目的としているが、事前訓練された言語モデル(PLM)は、より広い概念をカバーし、因果的なシーケンシャルモデリングと下流のアプリケーションのための微調整の両方で使用することができる。PLMは独自の学習パラダイム(通常は自己教師あり)を持ち、最新の自然言語処理システムの基礎モデルとして機能する。本論文では、CLMとPLMを言語単位、アーキテクチャ、学習方法、評価方法、アプリケーションの5つの側面から紹介する。さらに、CLMとPLMの関係を議論し、事前学習時代の言語モデリングの将来の方向性を明らかにする。
要約(オリジナル)
Language modeling studies the probability distributions over strings of texts. It is one of the most fundamental tasks in natural language processing (NLP). It has been widely used in text generation, speech recognition, machine translation, etc. Conventional language models (CLMs) aim to predict the probability of linguistic sequences in a causal manner, while pre-trained language models (PLMs) cover broader concepts and can be used in both causal sequential modeling and fine-tuning for downstream applications. PLMs have their own training paradigms (usually self-supervised) and serve as foundation models in modern NLP systems. This overview paper provides an introduction to both CLMs and PLMs from five aspects, i.e., linguistic units, architectures, training methods, evaluation methods, and applications. Furthermore, we discuss the relationship between CLMs and PLMs and shed light on the future directions of language modeling in the pre-trained era.
arxiv情報
著者 | Chengwei Wei,Yun-Cheng Wang,Bin Wang,C. -C. Jay Kuo |
発行日 | 2023-07-03 05:52:04+00:00 |
arxivサイト | arxiv_id(pdf) |