Multi-Agent Collaborative Data Selection for Efficient LLM Pretraining

要約

大規模言語モデル (LLM) の事前トレーニングを高速化するには、効率的なデータ選択が不可欠です。
データ効率を高めるためにさまざまな方法が提案されていますが、LLM 事前トレーニングに最適なデータ選択を達成するために、これらのアプローチ間の固有の矛盾に対処した研究は限られています。
この問題に取り組むために、我々は新しいマルチエージェント協調データ選択メカニズムを提案します。
このフレームワークでは、各データ選択メソッドが独立したエージェントとして機能し、エージェント コンソールは、LLM トレーニング プロセス全体を通じてすべてのエージェントからの情報を動的に統合するように設計されています。
当社では、マルチエージェント フレームワークを評価するために広範な実証研究を実施しています。
実験結果は、私たちのアプローチがデータ効率を大幅に向上させ、LLM トレーニングの収束を加速し、最先端の手法と比較して、複数の言語モデルのベンチマーク全体で最大 10.5% の平均パフォーマンス向上を達成することを示しています。

要約(オリジナル)

Efficient data selection is crucial to accelerate the pretraining of large language models (LLMs). While various methods have been proposed to enhance data efficiency, limited research has addressed the inherent conflicts between these approaches to achieve optimal data selection for LLM pretraining. To tackle this problem, we propose a novel multi-agent collaborative data selection mechanism. In this framework, each data selection method serves as an independent agent, and an agent console is designed to dynamically integrate the information from all agents throughout the LLM training process. We conduct extensive empirical studies to evaluate our multi-agent framework. The experimental results demonstrate that our approach significantly improves data efficiency, accelerates convergence in LLM training, and achieves an average performance gain up to 10.5% across multiple language model benchmarks compared to the state-of-the-art methods.

arxiv情報

著者 Tianyi Bai,Ling Yang,Zhen Hao Wong,Jiahui Peng,Xinlin Zhuang,Chi Zhang,Lijun Wu,Jiantao Qiu,Wentao Zhang,Binhang Yuan,Conghui He
発行日 2024-10-14 14:22:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク