You Can Generate It Again: Data-to-text Generation with Verification and Correction Prompting

要約

既存のモデルは大幅に進歩しましたが、データからテキストへの生成と呼ばれる、構造化データ入力からテキスト説明を生成することは依然として困難な作業です。
この論文では、生成、検証、および修正の各段階からなる複数段階のプロセスを導入することにより、従来のワンショット生成方法を超える新しいアプローチを提案します。
私たちのアプローチである VCP (Verification and Correction Prompting) は、モデルが初期出力を生成することから始まります。
次に、生成されたテキストのさまざまな側面の正確性を検証します。
検証ステップからの観察結果は、特定されたエラーを考慮しながら出力を再生成するようにモデルに指示する、特殊なエラー表示プロンプトに変換されます。
モデルの修正能力を強化するために、私たちは慎重に設計されたトレーニング手順を開発しました。
この手順により、モデルにエラー表示プロンプトからのフィードバックを組み込むことができるようになり、出力生成が向上します。
実験結果を通じて、私たちのアプローチが、生成されたテキストの全体的な品質を維持しながら、スロットエラー率を効果的に削減できることを実証します。

要約(オリジナル)

Despite significant advancements in existing models, generating text descriptions from structured data input, known as data-to-text generation, remains a challenging task. In this paper, we propose a novel approach that goes beyond traditional one-shot generation methods by introducing a multi-step process consisting of generation, verification, and correction stages. Our approach, VCP(Verification and Correction Prompting), begins with the model generating an initial output. We then proceed to verify the correctness of different aspects of the generated text. The observations from the verification step are converted into a specialized error-indication prompt, which instructs the model to regenerate the output while considering the identified errors. To enhance the model’s correction ability, we have developed a carefully designed training procedure. This procedure enables the model to incorporate feedback from the error-indication prompt, resulting in improved output generation. Through experimental results, we demonstrate that our approach effectively reduces slot error rates while maintaining the overall quality of the generated text.

arxiv情報

著者 Xuan Ren,Lingqiao Liu
発行日 2023-06-28 05:34:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク