A Survey of Controllable Text Generation using Transformer-based Pre-trained Language Models

要約

制御可能なテキスト生成 (CTG) は、自然言語生成 (NLG) の分野における新興領域です。
これは、実際のアプリケーションにおける特定の制約をより適切に満たす高度なテキスト生成テクノロジの開発にとって重要であると考えられています。
近年、大規模な事前トレーニング済み言語モデル (PLM) を使用する方法、特に広く使用されているトランスフォーマーベースの PLM が NLG の新しいパラダイムとなり、より多様で流暢なテキストの生成が可能になりました。
ただし、ディープ ニューラル ネットワークの解釈可能レベルには限界があるため、これらのメソッドの制御可能性を保証する必要があります。
この目的を達成するために、トランスフォーマーベースの PLM を使用した制御可能なテキスト生成は、急速に成長しているものの、挑戦的な新しい研究のホットスポットとなっています。
ここ 3 ~ 4 年で、さまざまな種類の制御された制約を必要とするさまざまな CTG タスクを対象とした、さまざまなアプローチが登場しました。
この論文では、この分野における共通のタスク、主なアプローチ、評価方法について体系的な批判的レビューを示します。
最後に、この分野が直面している課題について議論し、さまざまな有望な将来の方向性を提案します。
私たちの知る限り、これは、Transformer ベースの PLM の観点から最先端の CTG 技術を要約した最初の調査論文です。
関連分野の研究者や実務家が学術的および技術的最前線を迅速に追跡し、その地域の景観と将来の研究のロードマップを提供するのに役立つことを願っています。

要約(オリジナル)

Controllable Text Generation (CTG) is emerging area in the field of natural language generation (NLG). It is regarded as crucial for the development of advanced text generation technologies that better meet the specific constraints in practical applications. In recent years, methods using large-scale pre-trained language models (PLMs), in particular the widely used transformer-based PLMs, have become a new paradigm of NLG, allowing generation of more diverse and fluent text. However, due to the limited level of interpretability of deep neural networks, the controllability of these methods need to be guaranteed. To this end, controllable text generation using transformer-based PLMs has become a rapidly growing yet challenging new research hotspot. A diverse range of approaches have emerged in the recent 3-4 years, targeting different CTG tasks that require different types of controlled constraints. In this paper, we present a systematic critical review on the common tasks, main approaches, and evaluation methods in this area. Finally, we discuss the challenges that the field is facing, and put forward various promising future directions. To the best of our knowledge, this is the first survey paper to summarize the state-of-the-art CTG techniques from the perspective of Transformer-based PLMs. We hope it can help researchers and practitioners in the related fields to quickly track the academic and technological frontier, providing them with a landscape of the area and a roadmap for future research.

arxiv情報

著者 Hanqing Zhang,Haolin Song,Shaoyu Li,Ming Zhou,Dawei Song
発行日 2023-08-08 06:50:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク