要約
多くのドメインでは、自己回帰モデルは次の観測値を予測するタスクで低い対数尤度を達成できます。
ただし、この最尤法 (MLE) の目的は、高品質のシーケンスを自己回帰的に生成するダウンストリームのユースケースに必ずしも一致するとは限りません。
MLE 目標は、分布外 (OOD) のモデルの動作に関するガイダンスなしで、データ分布の下で頻度に比例してシーケンスを重み付けします。そのため、自己回帰生成中に複合エラーが発生します。
この複合誤差の問題に対処するために、シーケンス生成を模倣学習 (IL) 問題として定式化します。
これにより、自己回帰モデルによって生成されたシーケンスの分布とデータセットからのシーケンスの間のさまざまな相違 (OOD で生成されたシーケンスの重みによる相違を含む) を最小限に抑えることができます。
IL フレームワークでは、生成プロセスにバックスペース アクションを導入することでバックトラッキングを組み込むこともできます。
これにより、モデルがシーケンス OOD を取得した場合にサンプリングされたトークンを元に戻すことができるため、複合エラーの問題がさらに軽減されます。
私たちの結果として得られたメソッド SequenceMatch は、敵対的なトレーニングや大きなアーキテクチャの変更を行わずに実装できます。
生成に使用される自己回帰モデルのより適切なトレーニング目標として、SequenceMatch-$\chi^2$ 発散を特定します。
我々は、SequenceMatch トレーニングが言語モデルによるテキスト生成において MLE よりも改善につながることを経験的に示しています。
要約(オリジナル)
In many domains, autoregressive models can achieve low log-likelihood on the task of predicting the next observation. However, this maximum-likelihood (MLE) objective does not necessarily match a downstream use-case of autoregressively generating high-quality sequences. The MLE objective weights sequences proportionally to their frequency under the data distribution, with no guidance for the model’s behaviour out of distribution (OOD): leading to compounding error during autoregressive generation. In order to address this compounding error problem, we formulate sequence generation as an imitation learning (IL) problem. This allows us to minimize a variety of divergences between the distribution of sequences generated by an autoregressive model and sequences from a dataset, including divergences with weight on OOD generated sequences. The IL framework also allows us to incorporate backtracking by introducing a backspace action into the generation process. This further mitigates the compounding error problem by allowing the model to revert a sampled token if it takes the sequence OOD. Our resulting method, SequenceMatch, can be implemented without adversarial training or major architectural changes. We identify the SequenceMatch-$\chi^2$ divergence as a more suitable training objective for autoregressive models which are used for generation. We show that empirically, SequenceMatch training leads to improvements over MLE on text generation with language models.
arxiv情報
著者 | Chris Cundy,Stefano Ermon |
発行日 | 2023-06-08 17:59:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google