Prompting LLMs with content plans to enhance the summarization of scientific articles

要約

この論文では、科学論文の自動要約システムのパフォーマンスを向上させるための新しいプロンプト技術を紹介します。
科学論文の要約は、これらの文書の長さと複雑さのため、非常に困難です。
私たちは、要約システムをガイドするための追加のコンテキスト情報を提供するプロンプト手法を考案、実装、評価します。
具体的には、著者のキーワードや自動生成されたキーワードなど、記事から抽出された重要な用語のリストをサマライザーに提供します。
私たちの技術は、さまざまな要約モデルと入力テキストを使用してテストされています。
結果は、特にセクションを個別に要約した小規模なモデルでパフォーマンスが向上していることを示しています。
これは、プロンプトが、それほど強力ではないシステムの制限を克服するための有望なアプローチであることを証明しています。
私たちの発見は、プロンプトを使用して小規模なモデルを支援するという新しい研究の方向性を導入します。

要約(オリジナル)

This paper presents novel prompting techniques to improve the performance of automatic summarization systems for scientific articles. Scientific article summarization is highly challenging due to the length and complexity of these documents. We conceive, implement, and evaluate prompting techniques that provide additional contextual information to guide summarization systems. Specifically, we feed summarizers with lists of key terms extracted from articles, such as author keywords or automatically generated keywords. Our techniques are tested with various summarization models and input texts. Results show performance gains, especially for smaller models summarizing sections separately. This evidences that prompting is a promising approach to overcoming the limitations of less powerful systems. Our findings introduce a new research direction of using prompts to aid smaller models.

arxiv情報

著者 Aldan Creo,Manuel Lama,Juan C. Vidal
発行日 2023-12-13 16:57:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク