要約
タイトル:GPT-2によるPrefix-Tuningの文書要約への応用:知識の組み込み
要約:
– 現代の文書要約技術は大きく進化したが、生成された要約と元のテキストとの間に事実上の不整合が時折発生する。
– 本研究では、プロンプトを採用して生成された要約に事実上の知識を組み込む可能性を探究することを目的とする。
– 具体的には、トレーニング可能な連続的なプレフィックスのセットと離散的な自然言語のプロンプトを併用するprefix-tuningを研究する。
– 実験結果は、トレーニング可能なプレフィックスが少数の自然言語のプロンプトから正確に情報を抽出するため、知識を保存し、事実上のプロンプトと整合する要約を生成するのに役立ったことを示している。
– 生成された要約のROUGE改善は、文書要約のプロセスに事実上の知識を明示的に追加することで総合的なパフォーマンスを向上させることができることを示しており、他の自然言語処理タスクに適用することが可能であることを示している。
要約(オリジナル)
Despite the great development of document summarisation techniques nowadays, factual inconsistencies between the generated summaries and the original texts still occur from time to time. This study explores the possibility of adopting prompts to incorporate factual knowledge into generated summaries. We specifically study prefix-tuning that uses a set of trainable continuous prefix prompts together with discrete natural language prompts to aid summary generation. Experimental results demonstrate that the trainable prefixes can help the summarisation model extract information from discrete prompts precisely, thus generating knowledge-preserving summaries that are factually consistent with the discrete prompts. The ROUGE improvements of the generated summaries indicate that explicitly adding factual knowledge into the summarisation process could boost the overall performance, showing great potential for applying it to other natural language processing tasks.
arxiv情報
著者 | Chen Chen,Wei Emma Zhang,Alireza Seyed Shakeri |
発行日 | 2023-04-26 09:38:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI