要約
命令チューニングデータは、データ収集と高速モデルの反復により、多くの場合数量が飽和し、データの選択は重要ですが、採用されていないものです。
LIMA(Neurips 2023 \ Citep {Zhou2024lima})やAlpagasus(ICLR 2024 \ Citep {Chenalpagasus})などの既存の品質駆動型のデータ選択方法は、データの多様性と複雑さの同等の重要性を無視します。
この作業では、多様性を認識しているデータ選択戦略を設計し、Sparse Autoencoders(SAE)を使用してデータの多様性測定の課題に取り組むことを目指しています。
さらに、SAEは、モデルの動作のより多くの解釈可能性を提供し、例えば、最長の応答を選択する驚くべき有効性を説明することもできます(ICML 2024 \ citep {Zhaolong})。
効果的なデータ選択を使用して、選択したデータでトレーニングされたモデルがモデル機能の点で他の方法を上回ることができることを実験的に証明し、トレーニングコストを削減し、モデルの動作をより多くの制御を獲得する可能性があります。
SAEは、潜在的な産業用大規模な剪定のためにスケーラブルであるために、私たちの方法を測定し、設計するための優れた代替として機能することを証明し、より広いコミュニティが使用するために訓練されたSAEをリリースします。
要約(オリジナル)
Instruction tuning data are often quantity-saturated due to the large volume of data collection and fast model iteration, leaving data selection important but underexplored. Existing quality-driven data selection methods, such as LIMA (NeurIPS 2023 \citep{zhou2024lima}) and AlpaGasus (ICLR 2024 \citep{chenalpagasus}) generally ignore the equal importance of data diversity and complexity. In this work, we aim to design a diversity-aware data selection strategy and creatively propose using sparse autoencoders (SAEs) to tackle the challenge of data diversity measure. In addition, SAEs can also provide more interpretability of model behavior and explain, e.g., the surprising effectiveness of selecting the longest response (ICML 2024 \citep{zhaolong}). Using effective data selection, we experimentally prove that models trained on our selected data can outperform other methods in terms of model capabilities, reduce training cost, and potentially gain more control over model behaviors. We prove that SAEs can serve as a good alternative to diversity measure and design our method to be scalable for potential industrial large-scale pruning, and we will also release our trained SAEs for use by the broader community.
arxiv情報
著者 | Xianjun Yang,Shaoliang Nie,Lijuan Liu,Suchin Gururangan,Ujjwal Karn,Rui Hou,Madian Khabsa,Yuning Mao |
発行日 | 2025-03-31 21:41:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google