要約
フェデレーテッド ラーニングにより、複数の関係者がデータを直接共有することなく、大規模な言語モデルを共同でトレーニングできるようになりました (FedLLM)。
このトレーニング パラダイムに従って、コミュニティはフレームワーク、パフォーマンス、プライバシーなどのさまざまな側面から多大な努力を払ってきました。
ただし、不愉快な事実は、現時点では FedLLM の現実的なデータセットとベンチマークがなく、これまでの研究はすべて人工的に構築されたデータセットに依存しており、現実世界のシナリオでのプロパティをキャプチャできていないということです。
これに対処して、FedLLM コミュニティに包括的なテストベッドを提供するために、8 つのトレーニング方法、4 つのトレーニング データセット、および 6 つの評価指標を含む FedLLM-Bench を提案します。
FedLLM-Bench には、フェデレーテッド命令チューニング用の 3 つのデータセット (ユーザー注釈付き多言語データセットなど) とフェデレーテッドプリファレンス調整用の 1 つのデータセット (ユーザー注釈付きプリファレンスデータセットなど) が含まれており、そのクライアント数のスケールは 38 ~ 747 の範囲です。
いくつかの代表的な多様性: 言語、品質、量、指示、長さ、埋め込み、好みなど、現実世界のシナリオのプロパティをキャプチャします。
FedLLM-Bench に基づいて、既存の FL 手法のベンチマークを行うためにすべてのデータセットに対して実験を実施し、経験的な洞察 (例: 多言語コラボレーション) を提供します。
私たちは、FedLLM ベンチが必要な労力を削減し、実用的なテストベッドを提供し、公正な比較を促進することで FedLLM コミュニティに利益をもたらすことができると信じています。
コードとデータセットは https://github.com/rui-ye/FedLLM-Bench で入手できます。
要約(オリジナル)
Federated learning has enabled multiple parties to collaboratively train large language models without directly sharing their data (FedLLM). Following this training paradigm, the community has put massive efforts from diverse aspects including framework, performance, and privacy. However, an unpleasant fact is that there are currently no realistic datasets and benchmarks for FedLLM and previous works all rely on artificially constructed datasets, failing to capture properties in real-world scenarios. Addressing this, we propose FedLLM-Bench, which involves 8 training methods, 4 training datasets, and 6 evaluation metrics, to offer a comprehensive testbed for the FedLLM community. FedLLM-Bench encompasses three datasets (e.g., user-annotated multilingual dataset) for federated instruction tuning and one dataset (e.g., user-annotated preference dataset) for federated preference alignment, whose scale of client number ranges from 38 to 747. Our datasets incorporate several representative diversities: language, quality, quantity, instruction, length, embedding, and preference, capturing properties in real-world scenarios. Based on FedLLM-Bench, we conduct experiments on all datasets to benchmark existing FL methods and provide empirical insights (e.g., multilingual collaboration). We believe that our FedLLM-Bench can benefit the FedLLM community by reducing required efforts, providing a practical testbed, and promoting fair comparisons. Code and datasets are available at https://github.com/rui-ye/FedLLM-Bench.
arxiv情報
著者 | Rui Ye,Rui Ge,Xinyu Zhu,Jingyi Chai,Yaxin Du,Yang Liu,Yanfeng Wang,Siheng Chen |
発行日 | 2024-06-07 11:19:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google