Teaching Large Language Models Number-Focused Headline Generation With Key Element Rationales

要約

数に焦点を当てた見出しの生成は、高いテキストの品質と正確な数値精度の両方を必要とする要約タスクであり、大規模な言語モデル(LLMS)にユニークな課題をもたらします。
文献の既存の研究は、テキストの品質または数値的推論のいずれかにのみ焦点を当てているため、この課題に対処するには不十分です。
この論文では、ニュース記事のトピック、エンティティ、および数値推論(10)の重要な要素を含む理論的根拠を使用するための新しい考え方のフレームワークを提案し、LLMSがトピックに沿った高品質のテキストを生成する機能を強化します
正確な数値精度で。
具体的には、教師LLMが監督データとして10の理論的根拠を生成するために採用され、学生LLMを教えて微調整するために使用されます。
私たちのアプローチでは、学生LLMは、数値推論とトピックに整列した数値見出しの生成のための能力を強化した理論的根拠の自動生成を教えています。
実験は、私たちのアプローチがテキストの品質と数値の精度の両方で優れたパフォーマンスを達成することを示しています。

要約(オリジナル)

Number-focused headline generation is a summarization task requiring both high textual quality and precise numerical accuracy, which poses a unique challenge for Large Language Models (LLMs). Existing studies in the literature focus only on either textual quality or numerical reasoning and thus are inadequate to address this challenge. In this paper, we propose a novel chain-of-thought framework for using rationales comprising key elements of the Topic, Entities, and Numerical reasoning (TEN) in news articles to enhance the capability for LLMs to generate topic-aligned high-quality texts with precise numerical accuracy. Specifically, a teacher LLM is employed to generate TEN rationales as supervision data, which are then used to teach and fine-tune a student LLM. Our approach teaches the student LLM automatic generation of rationales with enhanced capability for numerical reasoning and topic-aligned numerical headline generation. Experiments show that our approach achieves superior performance in both textual quality and numerical accuracy.

arxiv情報

著者 Zhen Qian,Xiuzhen Zhang,Xiaofei Xu,Feng Xia
発行日 2025-02-05 12:39:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク