要約
この作業では、LLMS内の相互強化データ統合(MRDS)を提案して、少数のショットダイアログの要約タスクを改善します。
外部の知識を必要とする以前の方法とは異なり、LLMの対話統合と要約機能を相互に強化し、トレーニング中に互いに補完し、全体的なパフォーマンスを強化することができます。
ダイアログ合成機能は、要約機能からの優先スコアリングを伴う方向性の優先最適化によって強化されます。
要約能力は、ダイアログ合成能力によって生成された追加の高品質のダイアログサマリーペアのデータによって強化されます。
提案されたMRDSメカニズムを活用することにより、LLMの内部知識を合成データの形式で誘発し、それを使用して、少数の実際のトレーニングデータセットを増強します。
経験的結果は、この方法が対話の要約を改善し、ルージュスコアの1.5%の増加と、少ないショット設定でのBERTスコアの0.3%の改善を達成することを示しています。
さらに、私たちの方法は、人間の評価で最も高い平均スコアを達成し、事前に訓練されたモデルと、要約タスクのみのために微調整されたベースラインの両方を超えています。
要約(オリジナル)
In this work, we propose Mutual Reinforcing Data Synthesis (MRDS) within LLMs to improve few-shot dialogue summarization task. Unlike prior methods that require external knowledge, we mutually reinforce the LLM\’s dialogue synthesis and summarization capabilities, allowing them to complement each other during training and enhance overall performances. The dialogue synthesis capability is enhanced by directed preference optimization with preference scoring from summarization capability. The summarization capability is enhanced by the additional high quality dialogue-summary paired data produced by the dialogue synthesis capability. By leveraging the proposed MRDS mechanism, we elicit the internal knowledge of LLM in the format of synthetic data, and use it to augment the few-shot real training dataset. Empirical results demonstrate that our method improves dialogue summarization, achieving a 1.5% increase in ROUGE scores and a 0.3% improvement in BERT scores in few-shot settings. Furthermore, our method attains the highest average scores in human evaluations, surpassing both the pre-trained models and the baselines fine-tuned solely for summarization tasks.
arxiv情報
著者 | Yen-Ju Lu,Ting-Yao Hu,Hema Swetha Koppula,Hadi Pouransari,Jen-Hao Rick Chang,Yin Xia,Xiang Kong,Qi Zhu,Simon Wang,Oncel Tuzel,Raviteja Vemulapalli |
発行日 | 2025-02-24 17:01:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google