Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging

要約

人工知能 (AI) モデルは医療分野でますます使用されています。
ただし、医療データは非常に機密性が高いため、その保護を確実にするための特別な予防措置が必要です。
プライバシー保護のゴールドスタンダードは、モデルのトレーニングに差分プライバシー (DP) を導入することです。
これまでの研究では、DP がモデルの精度と公平性に悪影響を及ぼすことが示されていますが、これは医学では受け入れられず、プライバシー保護技術の普及に対する主な障壁となっています。
この研究では、AI モデルのプライバシー保護トレーニングの効果を、非プライベート トレーニングと比較した精度と公平性に関して評価しました。
このために、我々は 2 つのデータセットを使用しました: (1) 高品質の臨床胸部 X 線写真の大規模なデータセット (N=193,311)、(2) 3D 腹部コンピューター断層撮影 (CT) 画像のデータセット (N=1,625)。
膵管腺癌 (PDAC) の存在を分類する方法。
どちらも経験豊富な放射線科医によって遡及的に収集され、手動でラベルが付けられました。
次に、受信者操作者特性曲線下面積 (AUROC) として測定されるプライバシーとユーティリティのトレードオフ、およびプライバシーと公平性のトレードに関して、非プライベートのディープ畳み込みニューラル ネットワーク (CNN) とプライバシー保護 (DP) モデルを比較しました。
-offs。ピアソンの r または統計パリティ差として測定されます。
プライバシー保護のトレーニングでは精度は低かったものの、年齢、性別、併存疾患に対する差別はほとんど増幅されなかったことがわかりました。
私たちの研究は、現実の臨床データセットという困難で現実的な状況下において、優れた診断精度と公平性を備えた診断ディープラーニング モデルのプライバシー保護トレーニングが可能であることを示しています。

要約(オリジナル)

Artificial intelligence (AI) models are increasingly used in the medical domain. However, as medical data is highly sensitive, special precautions to ensure its protection are required. The gold standard for privacy preservation is the introduction of differential privacy (DP) to model training. Prior work indicates that DP has negative implications on model accuracy and fairness, which are unacceptable in medicine and represent a main barrier to the widespread use of privacy-preserving techniques. In this work, we evaluated the effect of privacy-preserving training of AI models regarding accuracy and fairness compared to non-private training. For this, we used two datasets: (1) A large dataset (N=193,311) of high quality clinical chest radiographs, and (2) a dataset (N=1,625) of 3D abdominal computed tomography (CT) images, with the task of classifying the presence of pancreatic ductal adenocarcinoma (PDAC). Both were retrospectively collected and manually labeled by experienced radiologists. We then compared non-private deep convolutional neural networks (CNNs) and privacy-preserving (DP) models with respect to privacy-utility trade-offs measured as area under the receiver-operator-characteristic curve (AUROC), and privacy-fairness trade-offs, measured as Pearson’s r or Statistical Parity Difference. We found that, while the privacy-preserving trainings yielded lower accuracy, they did largely not amplify discrimination against age, sex or co-morbidity. Our study shows that — under the challenging realistic circumstances of a real-life clinical dataset — the privacy-preserving training of diagnostic deep learning models is possible with excellent diagnostic accuracy and fairness.

arxiv情報

著者 Soroosh Tayebi Arasteh,Alexander Ziller,Christiane Kuhl,Marcus Makowski,Sven Nebelung,Rickmer Braren,Daniel Rueckert,Daniel Truhn,Georgios Kaissis
発行日 2024-01-25 14:55:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG, eess.IV パーマリンク