Diversity as a Reward: Fine-Tuning LLMs on a Mixture of Domain-Undetermined Data

要約

多様なデータセットを使用した大規模な言語モデル(LLMS)の微調整は、さまざまなドメインで全体的なパフォーマンスを向上させるために重要です。
実際のシナリオでは、データ構成の混合比率のモデリングに基づく既存の方法は、ドメインラベルが欠落、不正確、または非正規化されているデータと格闘しますが、データの選択に基づく方法は通常、マルチドメインのパフォーマンスのバランスをとるのに困難になります。
これらの課題に対処するために、この作業では、対照的なデータプールを経験的に構築し、理論的に説明する説明を構築することにより、LLMの全体的な能力を高める上でのデータ多様性の役割を調査します。
得られた洞察に基づいて、LLMにデュアルアイデンティティを提供する新しい方法を提案します。多様性報酬に基づいてデータを認知的にプローブおよび選択する出力モデルと、選択したデータで調整する入力モデルです。
広範な実験では、提案された方法が、さまざまな高度なLLMに適用された場合、ドメインが選択したデータと一連の基本的な下流タスク全体のパフォーマンスを顕著に向上させることを示しています。
コードをリリースし、この研究がデータの多様性の理解に光を当てることができることを願っています。

要約(オリジナル)

Fine-tuning large language models (LLMs) using diverse datasets is crucial for enhancing their overall performance across various domains. In practical scenarios, existing methods based on modeling the mixture proportions of data composition often struggle with data whose domain labels are missing, imprecise or non-normalized, while methods based on data selection usually encounter difficulties in balancing multi-domain performance. To address these challenges, in this work, we investigate the role of data diversity in enhancing the overall abilities of LLMs by empirically constructing contrastive data pools and theoretically deriving explanations. Building upon the insights gained, we propose a new method that gives the LLM a dual identity: an output model to cognitively probe and select data based on diversity reward, as well as an input model to be tuned with the selected data. Extensive experiments show that the proposed method notably boosts performance across domain-undetermined data and a series of foundational downstream tasks when applied to various advanced LLMs. We release our code and hope this study can shed light on the understanding of data diversity and advance feedback-driven data-model co-design for LLMs.

arxiv情報

著者 Zhenqing Ling,Daoyuan Chen,Liuyi Yao,Qianli Shen,Yaliang Li,Ying Shen
発行日 2025-05-22 16:34:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク