要約
タイトル:医療画像解析におけるプライベートフェデレーテッドモデルの性能向上
要約:
– Federated Learning(FL)は、分散型機械学習(ML)アプローチであり、中央集権的でないトレーニングデータの使用を可能にする。
– このアプローチは、医療データに関連するプライバシーやセキュリティ、データ所有権などの課題に対処することができるため、医療アプリケーションに特に有用である。
– さらに、FLは、より優れたMLモデルの品質を改善することができる。医療データは多様であり、患者集団によって大きく異なるため、正確かつ汎用的なMLモデルを開発することが困難である。
– FLは、複数のソースから医療データを使用することができるため、MLモデルの品質や汎化性を改善するのに役立つ。
– 差分プライバシー(DP)は、このプロセスを安全かつプライベートにするための汎用的なアルゴリズムツールである。
– この研究では、通信効率を改善する人気のあるアプローチであるローカルステップを導入し、通信ラウンドの数を調整することで、モデルの性能をさらに向上させることができることを示した。
– 具体的には、プライバシーバジェットが与えられた場合、最適なローカルステップ数と通信ラウンド数を示した。
– これについて、実際の医療画像タスクで行われた実験評価によって裏付けられた理論的な根拠を提供している。
要約(オリジナル)
Federated learning (FL) is a distributed machine learning (ML) approach that allows data to be trained without being centralized. This approach is particularly beneficial for medical applications because it addresses some key challenges associated with medical data, such as privacy, security, and data ownership. On top of that, FL can improve the quality of ML models used in medical applications. Medical data is often diverse and can vary significantly depending on the patient population, making it challenging to develop ML models that are accurate and generalizable. FL allows medical data to be used from multiple sources, which can help to improve the quality and generalizability of ML models. Differential privacy (DP) is a go-to algorithmic tool to make this process secure and private. In this work, we show that the model performance can be further improved by employing local steps, a popular approach to improving the communication efficiency of FL, and tuning the number of communication rounds. Concretely, given the privacy budget, we show an optimal number of local steps and communications rounds. We provide theoretical motivations further corroborated with experimental evaluations on real-world medical imaging tasks.
arxiv情報
著者 | Xiangjian Hou,Sarit Khirirat,Mohammad Yaqub,Samuel Horvath |
発行日 | 2023-04-11 10:42:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI