Simplified Swarm Learning Framework for Robust and Scalable Diagnostic Services in Cancer Histopathology

要約

プライバシーの懸念、不均衡なデータセット、相互運用性の問題を含むヘルスケアデータの複雑さは、革新的な機械学習ソリューションを必要とします。
連邦学習に代わる分散化された代替品であるSwarm Learning(SL)は、プライバシーを提供する分散トレーニングを提供しますが、ブロックチェーンテクノロジーへの依存により、アクセシビリティとスケーラビリティが妨げられます。
このペーパーでは、リソース制約の環境に合わせて調整された\ textIT {簡略化されたピアツーピアスウォーム学習(P2P-SL)フレームワーク}を紹介します。
ブロックチェーンの依存関係を排除し、軽量のピアツーピア通信を採用することにより、提案されたフレームワークは、データプライバシーを維持しながら、堅牢なモデル同期を保証します。
がんの組織病理学に適用されるこのフレームワークは、診断の精度を向上させるために、デンセンデコーダで強化されたTorchxrayvisionなどの最適化された事前訓練モデルを統合します。
広範な実験は、不均衡で偏ったデータセットの処理におけるフレームワークの有効性を示し、プライバシーを維持しながら集中モデルに匹敵するパフォーマンスを達成します。
この研究は、ヘルスケアで高度な機械学習を民主化する方法を舗装し、プライバシーに敏感な診断アプリケーションのためのスケーラブルでアクセス可能で効率的なソリューションを提供します。

要約(オリジナル)

The complexities of healthcare data, including privacy concerns, imbalanced datasets, and interoperability issues, necessitate innovative machine learning solutions. Swarm Learning (SL), a decentralized alternative to Federated Learning, offers privacy-preserving distributed training, but its reliance on blockchain technology hinders accessibility and scalability. This paper introduces a \textit{Simplified Peer-to-Peer Swarm Learning (P2P-SL) Framework} tailored for resource-constrained environments. By eliminating blockchain dependencies and adopting lightweight peer-to-peer communication, the proposed framework ensures robust model synchronization while maintaining data privacy. Applied to cancer histopathology, the framework integrates optimized pre-trained models, such as TorchXRayVision, enhanced with DenseNet decoders, to improve diagnostic accuracy. Extensive experiments demonstrate the framework’s efficacy in handling imbalanced and biased datasets, achieving comparable performance to centralized models while preserving privacy. This study paves the way for democratizing advanced machine learning in healthcare, offering a scalable, accessible, and efficient solution for privacy-sensitive diagnostic applications.

arxiv情報

著者 Yanjie Wu,Yuhao Ji,Saiho Lee,Juniad Akram,Ali Braytee,Ali Anaissi
発行日 2025-04-23 14:04:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.LG パーマリンク