Keep it Neutral: Using Natural Language Inference to Improve Generation

要約

自然言語推論 (NLI) をテキスト生成パイプラインに組み込むことを検討します。事前にトレーニングされた NLI モデルを使用して、生成された文がプロンプトおよび先行テキストを伴うか、矛盾するか、またはニュートラルであるかを評価します。
まず、NLI タスクが GPT-3 による生成エラーを予測できることを示します。
これらの結果を使用して、GPT-J の NLI に基づく生成手順を開発します。
次に、エラーの種類と全体的な品質に関する人間の注釈を取得することにより、これらの世代を評価します。
含意を最大化する NLI 戦略は、核サンプリングのランダム性パラメータ値が高い場合にテキスト生成を改善することがわかりますが、矛盾を最大化する戦略は、パラメータ値が低い場合に実際に生産的であることがわかります。
ただし、全体的には、ニュートラル クラスを最大化する NLI 戦略が、パラメーター値に関係なく、生成されたテキストの最高品質 (通常の世代よりも大幅に優れている) を提供することを示しています。

要約(オリジナル)

We explore incorporating natural language inference (NLI) into the text generative pipeline by using a pre-trained NLI model to assess whether a generated sentence entails, contradicts, or is neutral to the prompt and preceding text. First, we show that the NLI task is predictive of generation errors made by GPT-3. We use these results to develop an NLI-informed generation procedure for GPT-J. Then, we evaluate these generations by obtaining human annotations on error types and overall quality. We find that an NLI strategy of maximizing entailment improves text generation when the nucleus sampling randomness parameter value is high, while one which maximizes contradiction is in fact productive when the parameter value is low. Overall, though, we demonstrate that an NLI strategy of maximizing the neutral class provides the highest quality of generated text (significantly better than the vanilla generations), regardless of parameter value.

arxiv情報

著者 Michail Mersinias,Kyle Mahowald
発行日 2023-02-16 20:46:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク