Empowering Federated Learning for Massive Models with NVIDIA FLARE

要約

人工知能 (AI) と大規模言語モデル (LLM) が進化し続ける状況では、データを効果的に処理し活用することが重要な課題となっています。
最先端の機械学習アルゴリズムのほとんどはデータ中心です。
ただし、モデルのパフォーマンスの生命線である必要なデータは、プライバシー、規制、地政学、著作権問題、膨大なデータセットの移動に必要な多大な労力などのさまざまな要因により、常に一元化できるとは限りません。
このペーパーでは、NVIDIA FLARE によって実現されるフェデレーテッド ラーニングが、簡単でスケーラブルな統合機能によってこれらの課題にどのように対処できるかを検討します。これにより、自然言語処理およびバイオ医薬品アプリケーション向けの LLM のパラメータ効率の高い完全教師付き微調整が可能になり、精度と堅牢性が向上します。

要約(オリジナル)

In the ever-evolving landscape of artificial intelligence (AI) and large language models (LLMs), handling and leveraging data effectively has become a critical challenge. Most state-of-the-art machine learning algorithms are data-centric. However, as the lifeblood of model performance, necessary data cannot always be centralized due to various factors such as privacy, regulation, geopolitics, copyright issues, and the sheer effort required to move vast datasets. In this paper, we explore how federated learning enabled by NVIDIA FLARE can address these challenges with easy and scalable integration capabilities, enabling parameter-efficient and full supervised fine-tuning of LLMs for natural language processing and biopharmaceutical applications to enhance their accuracy and robustness.

arxiv情報

著者 Holger R. Roth,Ziyue Xu,Yuan-Ting Hsieh,Adithya Renduchintala,Isaac Yang,Zhihong Zhang,Yuhong Wen,Sean Yang,Kevin Lu,Kristopher Kersten,Camir Ricketts,Daguang Xu,Chester Chen,Yan Cheng,Andrew Feng
発行日 2024-02-12 16:59:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク