要約
タイトル:医療画像のフェデレーテッドセグメンテーションにおける注釈のないデータシロを活用するFederated Alternate Training(FAT)
要約:
– Federated Learning(FL)は、データの移動コストが限られた場合でもデータプライバシーを強化するために、機械学習(ML)モデルを分散学習することを目的としています。
– 医療画像データセットに対してプライバシーを保護するためには、FLが自然なフレームワークとなります。
– しかし、現在のFLベースの医療画像分野において、多くはシロにトレーニングのためのグラウンドトゥルーラベルがあることを前提としています。
– 現実には、注釈の取得は医療分野では時間と労力がかかることが多く、困難を伴うことが多いです。
– FATは、注釈のあるデータシロと注釈のないデータシロの間でトレーニングを交互に行うフレームワークです。
– 注釈のあるデータシロは注釈を利用して適切なグローバルセグメンテーションモデルを学習し、注釈のないデータシロはグローバルセグメンテーションモデルをターゲットモデルとして使用して、自己教師付き学習のための疑似ラベルを生成します。
– FATの性能を、2つの自然分割されたフェデレーテッドデータセットであるKiTS19およびFeTS2021で評価し、有望なパフォーマンスを示します。
要約(オリジナル)
Federated Learning (FL) aims to train a machine learning (ML) model in a distributed fashion to strengthen data privacy with limited data migration costs. It is a distributed learning framework naturally suitable for privacy-sensitive medical imaging datasets. However, most current FL-based medical imaging works assume silos have ground truth labels for training. In practice, label acquisition in the medical field is challenging as it often requires extensive labor and time costs. To address this challenge and leverage the unannotated data silos to improve modeling, we propose an alternate training-based framework, Federated Alternate Training (FAT), that alters training between annotated data silos and unannotated data silos. Annotated data silos exploit annotations to learn a reasonable global segmentation model. Meanwhile, unannotated data silos use the global segmentation model as a target model to generate pseudo labels for self-supervised learning. We evaluate the performance of the proposed framework on two naturally partitioned Federated datasets, KiTS19 and FeTS2021, and show its promising performance.
arxiv情報
著者 | Erum Mushtaq,Yavuz Faruk Bakman,Jie Ding,Salman Avestimehr |
発行日 | 2023-04-18 22:21:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI