要約
要約の改良は、多次元に拡張する際に課題に直面します。
この論文では、フィードバックに関する反射的推論を通じて複数の次元を強化する強力な要約改良パイプラインであるRefeedを紹介します。
これを実現するために、反射的推論で軽量モデルをトレーニングするために最適化された大規模なロングコットベースのデータセットであるSumFeed-Cotをリリースします。
私たちの実験は、次元の数、フィードバックの露出、および推論ポリシーの改良性のパフォーマンスにどのように影響するか、反射的推論を強調し、複数のフィードバックに対処することが、次元間のトレードオフを緩和するために重要であることを明らかにします。
さらに、Refeedは、ノイズの多いフィードバックとフィードバックの順序に対して堅牢です。
最後に、私たちの発見は、適切な目標とガイドラインでデータを作成することは、効果的な推論の基本的な柱であることを強調しています。
データセットとモデルがリリースされます。
要約(オリジナル)
Summarization refinement faces challenges when extending to multi-dimension. In this paper, we introduce ReFeed, a powerful summarization refinement pipeline that enhances multiple dimensions through reflective reasoning on feedback. To achieve this, we release SumFeed-CoT, a large-scale Long-CoT-based dataset optimized for training a lightweight model with reflective reasoning. Our experiments reveal how the number of dimensions, feedback exposure, and reasoning policy influence refinement performance, highlighting reflective reasoning and simultaneously addressing multiple feedback is crucial to mitigate trade-off between dimensions. Furthermore, ReFeed is robust to noisy feedback and feedback order. Lastly, our finding emphasizes that creating data with a proper goal and guideline constitutes a fundamental pillar of effective reasoning. The dataset and model will be released.
arxiv情報
著者 | Taewon Yun,Jihwan Oh,Hyangsuk Min,Yuho Lee,Jihwan Bang,Jason Cai,Hwanjun Song |
発行日 | 2025-03-27 10:11:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google