要約
近年、自然言語生成 (NLG) の分野におけるニューラル モデルの応用に多くの研究が注がれています。
主な目的は、言語的に自然で人間らしいテキストを生成しながら、生成プロセスを制御することです。
この論文では、ニューラル テキスト生成における最近の進歩について、タスクに依存しない包括的な調査を提供します。
これらの進歩は多数の開発によって促進されており、それらはデータ構築、ニューラル フレームワーク、トレーニングと推論戦略、評価指標の 4 つの主要領域に分類されています。
これらのさまざまな側面を調査することで、この分野での進歩の全体的な概要を提供することを目指しています。
さらに、ニューラル パイプラインの利用と背景知識の組み込みを含む、ニューラル テキスト生成の進歩の将来の方向性を探ります。
これらの手段は、NLG システムの機能をさらに強化する有望な機会を提供します。
全体として、この調査はニューラル テキスト生成における現在の最先端技術を確固たるものにし、この動的な分野における将来の研究開発の潜在的な道筋を浮き彫りにするのに役立ちます。
要約(オリジナル)
In recent years, considerable research has been dedicated to the application of neural models in the field of natural language generation (NLG). The primary objective is to generate text that is both linguistically natural and human-like, while also exerting control over the generation process. This paper offers a comprehensive and task-agnostic survey of the recent advancements in neural text generation. These advancements have been facilitated through a multitude of developments, which we categorize into four key areas: data construction, neural frameworks, training and inference strategies, and evaluation metrics. By examining these different aspects, we aim to provide a holistic overview of the progress made in the field. Furthermore, we explore the future directions for the advancement of neural text generation, which encompass the utilization of neural pipelines and the incorporation of background knowledge. These avenues present promising opportunities to further enhance the capabilities of NLG systems. Overall, this survey serves to consolidate the current state of the art in neural text generation and highlights potential avenues for future research and development in this dynamic field.
arxiv情報
著者 | Chen Tang,Frank Guerin,Chenghua Lin |
発行日 | 2023-06-12 09:48:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google