EvoText: Enhancing Natural Language Generation Models via Self-Escalation Learning for Up-to-Date Knowledge and Improved Performance

要約

タイトル:EvoText:自己エスカレーション学習による最新の知識と改善されたパフォーマンスの自然言語生成モデルの強化

要約:

– 最近、事前学習済みモデルが自然言語理解、コンピュータビジョン、自然言語生成などのさまざまな分野で広く利用されています。
– しかし、これらの言語生成モデルのパフォーマンスは、モデルサイズとデータセットサイズに非常に依存しています。
– EvoTextは、追加のデータセットを必要とせず、事前学習中に優れたパフォーマンスを持つ自然言語生成モデルのパフォーマンスを向上させる革新的なトレーニング方法です。
– EvoTextは、テキスト生成モデルである$G$と、生成されたデータが正当かどうかを決定できるモデルである$D$の2つのモデルを使用します。
– $D$モデルをファインチューニングして知識ベースとして使用し、$G$で生成されたテキストを$D$に入力して正当性を判断し、最終的に$D$の出力に基づいて$G$をファインチューニングします。
– EvoTextは、事前知識に基づく自己エスカレーションプロセスを構築することにより、最新の知識を学習することを可能にします。
– EvoTextは、すべてのTransformerクラスの自己回帰言語モデリングに適用されます。
– EvoTextにより、8つのモデルがモデル構造の変更なしに7つの自然言語処理タスクで安定した改善を実現しました。

要約(オリジナル)

In recent years, pretrained models have been widely used in various fields, including natural language understanding, computer vision, and natural language generation. However, the performance of these language generation models is highly dependent on the model size and the dataset size. While larger models excel in some aspects, they cannot learn up-to-date knowledge and are relatively difficult to relearn. In this paper, we introduce EvoText, a novel training method that enhances the performance of any natural language generation model without requiring additional datasets during the entire training process (although a prior dataset is necessary for pretraining). EvoText employs two models: $G$, a text generation model, and $D$, a model that can determine whether the data generated by $G$ is legitimate. Initially, the fine-tuned $D$ model serves as the knowledge base. The text generated by $G$ is then input to $D$ to determine whether it is legitimate. Finally, $G$ is fine-tuned based on $D$’s output. EvoText enables the model to learn up-to-date knowledge through a self-escalation process that builds on a priori knowledge. When EvoText needs to learn something new, it simply fine-tunes the $D$ model. Our approach applies to autoregressive language modeling for all Transformer classes. With EvoText, eight models achieved stable improvements in seven natural language processing tasks without any changes to the model structure.

arxiv情報

著者 Zhengqing Yuan,Huiwen Xue,Chao Zhang,Yongming Liu
発行日 2023-04-13 07:29:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク