Privacy in Multimodal Federated Human Activity Recognition

要約

人間活動認識(HAR)のトレーニングデータは、プライバシーに配慮したものであったり、非協力的なエンティティによって保持されていることが多い。Federated Learning (FL)は、エッジクライアントでMLモデルをトレーニングすることで、このような懸念に対処する。本研究では、ユーザ、環境、センサの各レベルで、統合されたHARにおけるプライバシーの影響を研究する。HARのためのFLは、FLシステムの想定プライバシーレベルに依存し、主に異なるセンサーからのデータのコロケーションに依存することが示される。先行研究のように、データの共有を避け、人間や環境レベルでのプライバシーを仮定することで、精度は5-7%低下する。しかし、これをモダリティレベルに拡張し、複数のクライアント間でセンサーデータを厳密に分離すると、精度が19-42%低下する可能性があります。HARにおけるパッシブセンシング手法の倫理的な利用には、このようなプライバシーが必要であるため、我々は、クライアントが一般的なFLモデルとモダリティごとのグループレベルのモデルの両方を相互に訓練するシステムを実装する。我々の評価では、この方法は7-13%の精度低下をもたらすだけであり、多様なハードウェアを用いたHARシステムの構築が可能であることが示された。

要約(オリジナル)

Human Activity Recognition (HAR) training data is often privacy-sensitive or held by non-cooperative entities. Federated Learning (FL) addresses such concerns by training ML models on edge clients. This work studies the impact of privacy in federated HAR at a user, environment, and sensor level. We show that the performance of FL for HAR depends on the assumed privacy level of the FL system and primarily upon the colocation of data from different sensors. By avoiding data sharing and assuming privacy at the human or environment level, as prior works have done, the accuracy decreases by 5-7%. However, extending this to the modality level and strictly separating sensor data between multiple clients may decrease the accuracy by 19-42%. As this form of privacy is necessary for the ethical utilisation of passive sensing methods in HAR, we implement a system where clients mutually train both a general FL model and a group-level one per modality. Our evaluation shows that this method leads to only a 7-13% decrease in accuracy, making it possible to build HAR systems with diverse hardware.

arxiv情報

著者 Alex Iacob,Pedro P. B. Gusmão,Nicholas D. Lane,Armand K. Koupai,Mohammud J. Bocus,Raúl Santos-Rodríguez,Robert J. Piechocki,Ryan McConville
発行日 2023-06-02 13:10:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク