要約
連携学習は、特にプライバシーへの懸念が高まる中、医療画像セグメンテーションのための説得力のあるパラダイムとして浮上してきた。しかし、既存の研究のほとんどは、クライアント間の注釈の均一性と完全性に関する比較的厳しい仮定に依存している。これに反して、本論文では、医療現場における一般的な課題である不完全な注釈に注目する。このような注釈は、誤ってラベル付けされたピクセルをもたらす可能性があり、教師あり学習におけるニューラルネットワークの性能を損なう可能性がある。この問題に取り組むために、我々はFedIAと名付けた新しいソリューションを紹介する。我々の洞察は、不完全なアノテーションをノイズデータ(つまり低品質データ)として概念化し、その悪影響を軽減することに焦点を当てることです。まず、設計された指標を用いて、クライアントレベルでアノテーションの完全性を評価する。その後、より包括的なアノテーションを持つクライアントの影響力を強化し、不完全なアノテーションの修正を実施することで、モデルが正確なデータで学習されるようにする。本手法の有効性は、広く使用されている2つの医療画像セグメンテーションデータセットにおいて、既存の解決策を凌駕する優れた性能を発揮することで検証される。コードはhttps://github.com/HUSTxyy/FedIA。
要約(オリジナル)
Federated learning has emerged as a compelling paradigm for medical image segmentation, particularly in light of increasing privacy concerns. However, most of the existing research relies on relatively stringent assumptions regarding the uniformity and completeness of annotations across clients. Contrary to this, this paper highlights a prevalent challenge in medical practice: incomplete annotations. Such annotations can introduce incorrectly labeled pixels, potentially undermining the performance of neural networks in supervised learning. To tackle this issue, we introduce a novel solution, named FedIA. Our insight is to conceptualize incomplete annotations as noisy data (i.e., low-quality data), with a focus on mitigating their adverse effects. We begin by evaluating the completeness of annotations at the client level using a designed indicator. Subsequently, we enhance the influence of clients with more comprehensive annotations and implement corrections for incomplete ones, thereby ensuring that models are trained on accurate data. Our method’s effectiveness is validated through its superior performance on two extensively used medical image segmentation datasets, outperforming existing solutions. The code is available at https://github.com/HUSTxyy/FedIA.
arxiv情報
著者 | Yangyang Xiang,Nannan Wu,Li Yu,Xin Yang,Kwang-Ting Cheng,Zengqiang Yan |
発行日 | 2024-07-03 07:12:34+00:00 |
arxivサイト | arxiv_id(pdf) |