要約
クラウドコンピューティングの時代には、特にクラウド環境全体で機密データを共有する場合、データプライバシー保護が大きな課題となっています。
ただし、クラウド環境全体でコラボレーションを最適化する方法は未解決の問題のままです。
このホワイトペーパーでは、フェデレートラーニングと大規模な言語モデルを組み合わせて、AIシステムの共同メカニズムを最適化します。
既存のフェデレーション学習フレームワークに基づいて、元のデータを公開せずに分散型ノードからモデルの更新を集約することにより、フェデレート学習が機能するクロスクラウドアーキテクチャを紹介します。
同時に、大規模な言語モデルと組み合わせて、その強力なコンテキストとセマンティック理解機能を使用して、モデルトレーニングの効率と意思決定能力を向上させます。
モデルの更新とトレーニングデータのプライバシーと整合性を確保するために、安全な通信レイヤーを導入することにより、さらに革新されました。
このモデルは、さまざまなクラウド環境にわたって継続的なモデル適応と微調整を可能にしながら、機密データを保護します。
実験結果は、提案された方法が、精度、収束速度、データプライバシー保護の観点から、従来の連邦学習モデルよりも大幅に優れていることを示しています。
要約(オリジナル)
In the age of cloud computing, data privacy protection has become a major challenge, especially when sharing sensitive data across cloud environments. However, how to optimize collaboration across cloud environments remains an unresolved problem. In this paper, we combine federated learning with large-scale language models to optimize the collaborative mechanism of AI systems. Based on the existing federated learning framework, we introduce a cross-cloud architecture in which federated learning works by aggregating model updates from decentralized nodes without exposing the original data. At the same time, combined with large-scale language models, its powerful context and semantic understanding capabilities are used to improve model training efficiency and decision-making ability. We’ve further innovated by introducing a secure communication layer to ensure the privacy and integrity of model updates and training data. The model enables continuous model adaptation and fine-tuning across different cloud environments while protecting sensitive data. Experimental results show that the proposed method is significantly better than the traditional federated learning model in terms of accuracy, convergence speed and data privacy protection.
arxiv情報
著者 | Huaiying Luo,Cheng Ji |
発行日 | 2025-05-19 16:14:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google