要約
本論文では、分散型統合センシング通信(ISAC)を利用した物体・人物の協調動作認識のための垂直連携エッジ学習(FEEL)システムを研究する。このシステムでは、分散したエッジデバイスがまず無線信号を送信してターゲットとなる物体や人間をセンシングし、次にデータのプライバシーを保護しながら協調認識のために(生のセンシングデータの代わりに)中間計算ベクトルを交換する。FEELでは、周波数とハードウェアの利用効率を高めるため、各エッジデバイスに専用の周波数変調連続波(FMCW)信号を使用し、ターゲットセンシングとデータ交換の両方にISACを利用します。このような構成により、多視点無線センシングデータに基づく認識を実現するための垂直FEELフレームワークを提案する。このフレームワークでは、各エッジデバイスが個別にローカルLモデルを所有し、センシングデータを比較的低次元の中間ベクトルに変換し、共通のダウンストリームSモデルを介して最終的に協調エッジデバイスに送信して出力する。人間の動作認識タスクに適用した結果、垂直FEEL方式では、ベンチマーク(オンデバイス学習、水平FEEL方式)と比較して、最大98%の認識精度を達成し、最大8%の改善を確認しました。
要約(オリジナル)
This letter studies a vertical federated edge learning (FEEL) system for collaborative objects/human motion recognition by exploiting the distributed integrated sensing and communication (ISAC). In this system, distributed edge devices first send wireless signals to sense targeted objects/human, and then exchange intermediate computed vectors (instead of raw sensing data) for collaborative recognition while preserving data privacy. To boost the spectrum and hardware utilization efficiency for FEEL, we exploit ISAC for both target sensing and data exchange, by employing dedicated frequency-modulated continuous-wave (FMCW) signals at each edge device. Under this setup, we propose a vertical FEEL framework for realizing the recognition based on the collected multi-view wireless sensing data. In this framework, each edge device owns an individual local L-model to transform its sensing data into an intermediate vector with relatively low dimensions, which is then transmitted to a coordinating edge device for final output via a common downstream S-model. By considering a human motion recognition task, experimental results show that our vertical FEEL based approach achieves recognition accuracy up to 98\% with an improvement up to 8\% compared to the benchmarks, including on-device training and horizontal FEEL.
arxiv情報
著者 | Peixi Liu,Guangxu Zhu,Wei Jiang,Wu Luo,Jie Xu,Shuguang Cui |
発行日 | 2022-06-07 03:39:42+00:00 |
arxivサイト | arxiv_id(pdf) |