LOGEN: Few-shot Logical Knowledge-Conditioned Text Generation with Self-training

要約

タイトル:自己学習による数少ないショット数による論理知識条件つきテキスト生成「LOGEN」

要約:

– 構造化されたデータからの自然言語生成は主に表層レベルの説明に焦点を当てており、コンテンツの選択が制御されず、信頼性が低い問題がある。
– 以前の研究では、論理形式を利用して論理知識条件つきのテキスト生成を進めた。多大なデータを必要とするため、現実世界での応用には限界がある。
– この論文は、数少ないショット数の論理形式(20/100ショットなど)を持つ統合フレームワークを提案する。自己学習を活用し、コンテンツと構造の一貫性に基づいて疑似論理形式をサンプリングするアプローチを採用している。
– 実験結果から、この手法はベースラインよりも少数ショットにおける高い性能を実現できることが示されている。

要約(オリジナル)

Natural language generation from structured data mainly focuses on surface-level descriptions, suffering from uncontrollable content selection and low fidelity. Previous works leverage logical forms to facilitate logical knowledge-conditioned text generation. Though achieving remarkable progress, they are data-hungry, which makes the adoption for real-world applications challenging with limited data. To this end, this paper proposes a unified framework for logical knowledge-conditioned text generation in the few-shot setting. With only a few seeds logical forms (e.g., 20/100 shot), our approach leverages self-training and samples pseudo logical forms based on content and structure consistency. Experimental results demonstrate that our approach can obtain better few-shot performance than baselines.

arxiv情報

著者 Shumin Deng,Jiacheng Yang,Hongbin Ye,Chuanqi Tan,Mosha Chen,Songfang Huang,Fei Huang,Huajun Chen,Ningyu Zhang
発行日 2023-05-05 03:26:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL, cs.IR, cs.LG パーマリンク