CCVA-FL: Cross-Client Variations Adaptive Federated Learning for Medical Imaging

要約

Federated Learning(FL)は、分散化されたデータ上でモデルを学習するためのプライバシー保護アプローチを提供する。ヘルスケアにおけるその可能性は大きいが、限られたアノテーションによって悪化する医療画像データのクライアント間のばらつきによって課題が生じる。本稿では、これらの問題に対処するために、Cross-Client Variations Adaptive Federated Learning (CCVA-FL)を紹介する。CCVA-FLは、画像を共通の特徴空間に変換することで、クライアント間のばらつきを最小化することを目的としている。CCVA-FLでは、各クライアントからの画像のサブセットに専門家がアノテーションを行い、その後、データの複雑さが最も少ないクライアントをターゲットとして選択する。次に、ターゲットクライアントのアノテーション画像に基づいて、変換器付きスケーラブル拡散モデル(DiT)を用いて合成医用画像を生成する。これらの合成画像は、多様性をキャプチャし、元のデータを表現し、他のクライアントと共有される。その後、各クライアントは、画像間変換を使用して、ローカル画像をターゲット画像空間に変換する。翻訳された画像は、その後、サーバモデルを開発するための連合学習設定で使用される。我々の結果は、CCVA-FLが、プライバシーを損なうことなく、クライアント間のデータ分布の違いに効果的に対処することで、バニラ連携平均化を上回ることを実証している。

要約(オリジナル)

Federated Learning (FL) offers a privacy-preserving approach to train models on decentralized data. Its potential in healthcare is significant, but challenges arise due to cross-client variations in medical image data, exacerbated by limited annotations. This paper introduces Cross-Client Variations Adaptive Federated Learning (CCVA-FL) to address these issues. CCVA-FL aims to minimize cross-client variations by transforming images into a common feature space. It involves expert annotation of a subset of images from each client, followed by the selection of a client with the least data complexity as the target. Synthetic medical images are then generated using Scalable Diffusion Models with Transformers (DiT) based on the target client’s annotated images. These synthetic images, capturing diversity and representing the original data, are shared with other clients. Each client then translates its local images into the target image space using image-to-image translation. The translated images are subsequently used in a federated learning setting to develop a server model. Our results demonstrate that CCVA-FL outperforms Vanilla Federated Averaging by effectively addressing data distribution differences across clients without compromising privacy.

arxiv情報

著者 Sunny Gupta,Amit Sethi
発行日 2024-08-02 16:30:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG, I.2.10 パーマリンク