要約
支援運転や自動運転は急速に勢いを増しており、間もなく現実になるでしょう。
スマート車両が車載センサーから収集する大量のデータのおかげでもあり、その主要な実現要因の中で、人工知能と機械学習が重要な役割を果たすことが期待されています。
この分野では、フェデレーテッド ラーニングは、車両でのデータ プライバシーを保護し、通信リソースの使用を最適化しながら、グローバル機械学習モデルをトレーニングするための最も効果的で有望な手法の 1 つです。
この研究では、推定された 5G 無線環境マップと組み合わせて車両のモビリティを活用する、車両連合学習のための計算スケジューリングの共同設計である VREM-FL を提案します。
VREM-FL は、通信リソースを賢く割り当てながら、サーバーで学習したグローバル モデルを共同で最適化します。
これは、無線チャネル マップを利用して、適応的かつ予測的な方法でローカル モデルの更新を送信するとともに、車両でのローカル計算を調整することによって実現されます。
提案されたアルゴリズムは、無線リソースの使用量とモデルのトレーニング時間をトレードするように調整できます。
実験結果は、ラジオマップ活用の有効性を示しています。
VREM-FL は、線形回帰モデル (学習時間が 28% 短縮) とセマンティック イメージ セグメンテーション タスクのディープ ニューラル ネットワーク (同じ時間枠内でのモデル更新数が 2 倍) の両方で文献ベンチマークを上回っています。
要約(オリジナル)
Assisted and autonomous driving are rapidly gaining momentum, and will soon become a reality. Among their key enablers, artificial intelligence and machine learning are expected to play a prominent role, also thanks to the massive amount of data that smart vehicles will collect from their onboard sensors. In this domain, federated learning is one of the most effective and promising techniques for training global machine learning models, while preserving data privacy at the vehicles and optimizing communications resource usage. In this work, we propose VREM-FL, a computation-scheduling co-design for vehicular federated learning that leverages mobility of vehicles in conjunction with estimated 5G radio environment maps. VREM-FL jointly optimizes the global model learned at the server while wisely allocating communication resources. This is achieved by orchestrating local computations at the vehicles in conjunction with the transmission of their local model updates in an adaptive and predictive fashion, by exploiting radio channel maps. The proposed algorithm can be tuned to trade model training time for radio resource usage. Experimental results demonstrate the efficacy of utilizing radio maps. VREM-FL outperforms literature benchmarks for both a linear regression model (learning time reduced by 28%) and a deep neural network for a semantic image segmentation task (doubling the number of model updates within the same time window).
arxiv情報
著者 | Luca Ballotta,Nicolò Dal Fabbro,Giovanni Perin,Luca Schenato,Michele Rossi,Giuseppe Piro |
発行日 | 2023-11-30 17:38:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google