MammoFL: Mammographic Breast Density Estimation using Federated Learning

要約

この研究では、ニューラル ネットワークを使用して定量的なマンモグラフィー乳房密度推定を自動化し、このツールが複数施設のデータセットに対する連合学習の強力な使用例であることを示します。
私たちのデータセットには、2 つの別々の施設からの両側の CC ビューおよび MLO ビューのマンモグラフィー画像が含まれていました。
2 つの U-Net はアルゴリズムで生成されたラベルで個別にトレーニングされ、これらの画像から乳房と密な組織のセグメンテーションを実行し、続いて乳房パーセント密度 (PD) を計算しました。
ネットワークはフェデレーテッド ラーニングでトレーニングされ、3 つの非フェデレーテッド ベースライン (各単一施設データセットでトレーニングされたものと、集約された複数施設データセットでトレーニングされたもの) と比較されました。
私たちは、複数の機関のデータセットでのトレーニングがアルゴリズムの汎用性にとって重要であることを実証します。
さらに、複数施設のデータセットでの連合学習により、複数施設のデータセットでの集中トレーニングとほぼ同じレベルで、目に見えないデータへのモデルの一般化が向上することを示し、患者のプライバシーを維持しながらアルゴリズムの汎化性を向上させるために、連合学習を私たちの方法に適用できることを示しています。

要約(オリジナル)

In this study, we automate quantitative mammographic breast density estimation with neural networks and show that this tool is a strong use case for federated learning on multi-institutional datasets. Our dataset included bilateral CC-view and MLO-view mammographic images from two separate institutions. Two U-Nets were separately trained on algorithm-generated labels to perform segmentation of the breast and dense tissue from these images and subsequently calculate breast percent density (PD). The networks were trained with federated learning and compared to three non-federated baselines, one trained on each single-institution dataset and one trained on the aggregated multi-institution dataset. We demonstrate that training on multi-institution datasets is critical to algorithm generalizability. We further show that federated learning on multi-institutional datasets improves model generalization to unseen data at nearly the same level as centralized training on multi-institutional datasets, indicating that federated learning can be applied to our method to improve algorithm generalizability while maintaining patient privacy.

arxiv情報

著者 Ramya Muthukrishnan,Angelina Heyler,Keshava Katti,Sarthak Pati,Walter Mankowski,Aprupa Alahari,Michael Sanborn,Emily F. Conant,Christopher Scott,Stacey Winham,Celine Vachon,Pratik Chaudhari,Despina Kontos,Spyridon Bakas
発行日 2023-12-12 15:10:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.DC, cs.LG, eess.IV パーマリンク