要約
IoTエコシステムの急速な拡大は、スケーラビリティ、セキュリティ、およびリアルタイムの意思決定に深刻な課題をもたらします。
従来の集中的なアーキテクチャは、遅延、プライバシーの懸念、過度のリソース消費に苦労しており、最新の大規模なIoT展開には適していません。
このホワイトペーパーでは、データプライバシーと計算効率を確保しながらIoTシステムインテリジェンスを強化するように設計された、新しいフェデレートレーニング駆動型の大手言語モデル(FL-LLM)フレームワークを紹介します。
このフレームワークは、勾配センシングフェデレーション戦略(GSFS)と生成IoT(GIOT)モデルを統合し、リアルタイムネットワーク条件に基づいてモデルの更新を動的に最適化します。
ハイブリッドエッジクラウド処理アーキテクチャを活用することにより、当社のアプローチは、分散型IoT環境のインテリジェンス、スケーラビリティ、セキュリティのバランスを取ります。
IoT-23データセットの評価は、私たちのフレームワークがモデルの精度を改善し、応答の遅延を低下させ、エネルギー効率を高めることを示しています。
これらの調査結果は、LLMを搭載したフェデレーション学習を大規模なIoTエコシステムに統合する可能性を強調し、より安全でスケーラブルな、適応性のあるIoT管理ソリューションへの道を開いています。
要約(オリジナル)
The rapid expansion of IoT ecosystems introduces severe challenges in scalability, security, and real-time decision-making. Traditional centralized architectures struggle with latency, privacy concerns, and excessive resource consumption, making them unsuitable for modern large-scale IoT deployments. This paper presents a novel Federated Learning-driven Large Language Model (FL-LLM) framework, designed to enhance IoT system intelligence while ensuring data privacy and computational efficiency. The framework integrates Generative IoT (GIoT) models with a Gradient Sensing Federated Strategy (GSFS), dynamically optimizing model updates based on real-time network conditions. By leveraging a hybrid edge-cloud processing architecture, our approach balances intelligence, scalability, and security in distributed IoT environments. Evaluations on the IoT-23 dataset demonstrate that our framework improves model accuracy, reduces response latency, and enhances energy efficiency, outperforming traditional FL techniques (i.e., FedAvg, FedOpt). These findings highlight the potential of integrating LLM-powered federated learning into large-scale IoT ecosystems, paving the way for more secure, scalable, and adaptive IoT management solutions.
arxiv情報
著者 | Yazan Otoum,Arghavan Asad,Amiya Nayak |
発行日 | 2025-04-22 16:56:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google