要約
この研究では、フェデレーテッド ラーニング フレームワーク内に検索拡張生成 (RAG) システムを統合することにより、医療分野向けのドメイン固有の大規模言語モデル (LLM) のパフォーマンスを分析します。
この研究では、データ プライバシーの保護や分散コンピューティングの有効化など、フェデレーテッド ラーニングの固有の利点を活用して、パフォーマンスを最適化するために、さまざまなクライアント構成でトレーニングされたモデルと RAG システムの統合を検討しています。
実験結果は、RAG システムと統合されたフェデレーション学習ベースのモデルが、すべての評価指標にわたって統合されていないモデルよりも一貫して優れていることを示しています。
この調査では、フェデレーテッド ラーニングと RAG システムを組み合わせて医療分野でドメイン固有の LLM を開発し、テキスト生成機能を強化するためのスケーラブルでプライバシー保護のソリューションを提供する可能性を強調しています。
要約(オリジナル)
This study analyzes the performance of domain-specific Large Language Models (LLMs) for the medical field by integrating Retrieval-Augmented Generation (RAG) systems within a federated learning framework. Leveraging the inherent advantages of federated learning, such as preserving data privacy and enabling distributed computation, this research explores the integration of RAG systems with models trained under varying client configurations to optimize performance. Experimental results demonstrate that the federated learning-based models integrated with RAG systems consistently outperform their non-integrated counterparts across all evaluation metrics. This study highlights the potential of combining federated learning and RAG systems for developing domain-specific LLMs in the medical field, providing a scalable and privacy-preserving solution for enhancing text generation capabilities.
arxiv情報
著者 | Jincheol Jung,Hongju Jeong,Eui-Nam Huh |
発行日 | 2025-01-08 07:03:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google