Guide-to-Explain for Controllable Summarization

要約

最近、大規模言語モデル (LLM) は、抽象的な要約タスクにおいて顕著なパフォーマンスを実証しました。
ただし、LLM を使用した制御可能な要約はまだ研究されておらず、特定のユーザーの好みに合わせた要約を生成する機能が制限されています。
この論文では、まずLLMが多様な属性を制御する能力を調査し、言語属性と比較して長さや抽出性などの数値属性で大きな課題に直面していることを明らかにしました。
この課題に対処するために、制御可能な要約のための Guide-to-Explain フレームワーク (GTE) を提案します。
GTE フレームワークを使用すると、モデルが最初のドラフトで位置がずれている属性を特定できるようになり、前の出力のエラーを説明できるようになります。
この反映に基づいて、モデルは適切に調整された要約を生成します。
その結果、モデルにその不整合を反映させることにより、LLM のみを使用する他の反復手法よりも驚くほど少ない反復で、必要な属性を満たす要約を生成できます。

要約(オリジナル)

Recently, large language models (LLMs) have demonstrated remarkable performance in abstractive summarization tasks. However, controllable summarization with LLMs remains underexplored, limiting their ability to generate summaries that align with specific user preferences. In this paper, we first investigate the capability of LLMs to control diverse attributes, revealing that they encounter greater challenges with numerical attributes, such as length and extractiveness, compared to linguistic attributes. To address this challenge, we propose a guide-to-explain framework (GTE) for controllable summarization. Our GTE framework enables the model to identify misaligned attributes in the initial draft and guides it in explaining errors in the previous output. Based on this reflection, the model generates a well-adjusted summary. As a result, by allowing the model to reflect on its misalignment, we generate summaries that satisfy the desired attributes in surprisingly fewer iterations than other iterative methods solely using LLMs.

arxiv情報

著者 Sangwon Ryu,Heejin Do,Daehee Kim,Yunsu Kim,Gary Geunbae Lee,Jungseul Ok
発行日 2024-11-19 12:36:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク