Differential Private Federated Transfer Learning for Mental Health Monitoring in Everyday Settings: A Case Study on Stress Detection

要約

精神的健康状態はさまざまな人口統計に蔓延しており、生活の質への悪影響を軽減するために効率的なモニタリングが必要です。
メンタルヘルスモニタリングのためのデータドリブンな方法論の急増により、機密性の高い健康データを扱う際のプライバシー保護技術の重要性が浮き彫りになりました。
メンタルヘルス監視のためのフェデレーテッド ラーニングは進歩しているにもかかわらず、既存のアプローチは、特定のサイバー攻撃に対する脆弱性や現実世界のアプリケーションにおけるデータ不足に悩まされています。
このペーパーでは、データのプライバシーを強化し、データの十分性を高めるために、メンタルヘルスをモニタリングするための差分プライベートフェデレーテッド転移学習フレームワークを紹介します。
これを達成するために、フェデレーテッド ラーニングを 2 つの重要な要素と統合します。(1) 更新にノイズを導入することで達成される差分プライバシー、および (2) データの不均衡と不十分さの問題に適切に対処するために事前トレーニングされたユニバーサル モデルを採用する転移学習

縦断的研究からの生理学的データと文脈データのデータセットを使用して、ストレス検出に関するケーススタディによってフレームワークを評価します。
私たちの調査結果では、提案されたアプローチにより、プライバシー保護を確保しながら、精度が 10% 向上し、再現率が 21% 向上することがわかりました。

要約(オリジナル)

Mental health conditions, prevalent across various demographics, necessitate efficient monitoring to mitigate their adverse impacts on life quality. The surge in data-driven methodologies for mental health monitoring has underscored the importance of privacy-preserving techniques in handling sensitive health data. Despite strides in federated learning for mental health monitoring, existing approaches struggle with vulnerabilities to certain cyber-attacks and data insufficiency in real-world applications. In this paper, we introduce a differential private federated transfer learning framework for mental health monitoring to enhance data privacy and enrich data sufficiency. To accomplish this, we integrate federated learning with two pivotal elements: (1) differential privacy, achieved by introducing noise into the updates, and (2) transfer learning, employing a pre-trained universal model to adeptly address issues of data imbalance and insufficiency. We evaluate the framework by a case study on stress detection, employing a dataset of physiological and contextual data from a longitudinal study. Our finding show that the proposed approach can attain a 10% boost in accuracy and a 21% enhancement in recall, while ensuring privacy protection.

arxiv情報

著者 Ziyu Wang,Zhongqi Yang,Iman Azimi,Amir M. Rahmani
発行日 2024-02-16 18:00:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク