要約
ニューラル言語モデルは、多くの場合、多様で有益なテキストを生成できないため、現実世界の問題への適用が制限されます。
これまでのアプローチでは、言語モデルから望ましくない行動(繰り返し、頻繁に使用する単語の使いすぎなど)を特定してペナルティを与えることでこれらの問題に対処することが提案されてきましたが、我々は観察に基づいた代替アプローチを提案します。モデルは主に、原因となる可能性が高い例内の属性を学習します。
変性の問題。
この観察に基づいて、2 つのモデルをトレーニングすることで劣化の問題を防ぐ新しいアプローチを提案します。
具体的には、まず、望ましくないパターンを増幅するように設計されたモデルをトレーニングします。
次に、最初のモデルが学習できなかったパターンに焦点を当てることで、2 番目のモデルの多様性を強化します。
言語モデリングと対話生成という 2 つのタスクに関する広範な実験により、私たちのアプローチの有効性が実証されました。
要約(オリジナル)
Neural language models often fail to generate diverse and informative texts, limiting their applicability in real-world problems. While previous approaches have proposed to address these issues by identifying and penalizing undesirable behaviors (e.g., repetition, overuse of frequent words) from language models, we propose an alternative approach based on an observation: models primarily learn attributes within examples that are likely to cause degeneration problems. Based on this observation, we propose a new approach to prevent degeneration problems by training two models. Specifically, we first train a model that is designed to amplify undesirable patterns. We then enhance the diversity of the second model by focusing on patterns that the first model fails to learn. Extensive experiments on two tasks, namely language modeling and dialogue generation, demonstrate the effectiveness of our approach.
arxiv情報
著者 | Jimin Hong,ChaeHun Park,Jaegul Choo |
発行日 | 2023-09-22 04:57:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google