Privacy Preserving Federated Learning in Medical Imaging with Uncertainty Estimation

要約

機械学習 (ML) と人工知能 (AI) は、特にヘルスケア分野で目覚ましい進歩を促進しました。
医療画像処理において、ML モデルは疾患の診断、治療計画、治療後のモニタリングを改善する可能性を秘めています。
画像分類、物体検出、画像セグメンテーションなどのさまざまなコンピューター ビジョン タスクが、臨床分析において日常的に行われるようになっています。
しかし、患者データに関するプライバシーの懸念により、正確で堅牢かつ一般化可能なモデルの開発とトレーニングに必要な大規模なトレーニング データセットの構築が妨げられています。
Federated Learning (FL) は、データ (医療画像など) ではなくモデル トレーニング情報 (勾配) を共有することで、組織が ML モデル トレーニングで協力できるようにする魅力的なソリューションとして登場しました。
FL の分散型学習フレームワークは、患者のプライバシーを保護しながら、施設間のコラボレーションを促進します。
ただし、フロリダ州はプライバシー保護には強固ですが、いくつかの課題に直面しています。
機密情報は、モデルのトレーニング中に組織間で受け渡される共有勾配から引き続き収集できます。
さらに、医療画像処理では、データ内にノイズやアーチファクトが存在するため、モデルの信頼性や不確実性を正確に定量化することが重要です。
フロリダ州における不確実性の推定は、組織間のデータの異質性により特有のハードルに直面します。
この文書では、医療画像に焦点を当て、FL、プライバシー保護、不確実性推定の包括的なレビューを提供します。
現在の研究の調査と並行して、この分野のギャップを特定し、プライバシーを強化し、ノイズの多い医療画像データの課題に対処するための FL 研究の将来の方向性を提案します。

要約(オリジナル)

Machine learning (ML) and Artificial Intelligence (AI) have fueled remarkable advancements, particularly in healthcare. Within medical imaging, ML models hold the promise of improving disease diagnoses, treatment planning, and post-treatment monitoring. Various computer vision tasks like image classification, object detection, and image segmentation are poised to become routine in clinical analysis. However, privacy concerns surrounding patient data hinder the assembly of large training datasets needed for developing and training accurate, robust, and generalizable models. Federated Learning (FL) emerges as a compelling solution, enabling organizations to collaborate on ML model training by sharing model training information (gradients) rather than data (e.g., medical images). FL’s distributed learning framework facilitates inter-institutional collaboration while preserving patient privacy. However, FL, while robust in privacy preservation, faces several challenges. Sensitive information can still be gleaned from shared gradients that are passed on between organizations during model training. Additionally, in medical imaging, quantifying model confidence\uncertainty accurately is crucial due to the noise and artifacts present in the data. Uncertainty estimation in FL encounters unique hurdles due to data heterogeneity across organizations. This paper offers a comprehensive review of FL, privacy preservation, and uncertainty estimation, with a focus on medical imaging. Alongside a survey of current research, we identify gaps in the field and suggest future directions for FL research to enhance privacy and address noisy medical imaging data challenges.

arxiv情報

著者 Nikolas Koutsoubis,Yasin Yilmaz,Ravi P. Ramachandran,Matthew Schabath,Ghulam Rasool
発行日 2024-06-18 17:35:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DC, cs.LG, eess.IV, stat.ML パーマリンク