Real World Federated Learning with a Knowledge Distilled Transformer for Cardiac CT Imaging

要約

フェデレーテッド ラーニングは、プライバシーを保護しながら分散データを利用するための有名な技術です。
ただし、実際のアプリケーションは、部分的にラベル付けされたデータセットなどの課題に直面することが多く、特定の専門家による注釈が少数の場所にのみ存在し、ラベル付けされていないデータの大部分が未使用のままになります。
これらを活用すると、小規模で多様な注釈が付けられたセットを含む領域での変圧器アーキテクチャの能力を強化できる可能性があります。
当社は、8 つの病院にわたる現実世界の環境で、これまでで最大規模の連合心臓 CT 解析 (n=8,104) を実施しています。
私たちの 2 段階の半教師あり戦略は、タスク固有の CNN からの知識を抽出してトランスフォーマーに変換します。
まず、CNN はラベルの種類ごとにラベルのないデータを予測し、次にトランスフォーマーはラベル固有のヘッドを使用してこれらの予測から学習します。
これにより、予測精度が向上し、フェデレーション全体ですべての部分ラベルを同時に学習できるようになり、ダウンストリーム タスクの一般化性において UNet ベースのモデルを上回ります。
コードとモデルの重みは、将来の心臓 CT 解析を活用するために公開されています。

要約(オリジナル)

Federated learning is a renowned technique for utilizing decentralized data while preserving privacy. However, real-world applications often face challenges like partially labeled datasets, where only a few locations have certain expert annotations, leaving large portions of unlabeled data unused. Leveraging these could enhance transformer architectures ability in regimes with small and diversely annotated sets. We conduct the largest federated cardiac CT analysis to date (n=8,104) in a real-world setting across eight hospitals. Our two-step semi-supervised strategy distills knowledge from task-specific CNNs into a transformer. First, CNNs predict on unlabeled data per label type and then the transformer learns from these predictions with label-specific heads. This improves predictive accuracy and enables simultaneous learning of all partial labels across the federation, and outperforms UNet-based models in generalizability on downstream tasks. Code and model weights are made openly available for leveraging future cardiac CT analysis.

arxiv情報

著者 Malte Tölle,Philipp Garthe,Clemens Scherer,Jan Moritz Seliger,Andreas Leha,Nina Krüger,Stefan Simm,Simon Martin,Sebastian Eble,Halvar Kelm,Moritz Bednorz,Florian André,Peter Bannas,Gerhard Diller,Norbert Frey,Stefan Groß,Anja Hennemuth,Lars Kaderali,Alexander Meyer,Eike Nagel,Stefan Orwat,Moritz Seiffert,Tim Friede,Tim Seidler,Sandy Engelhardt
発行日 2025-01-02 13:22:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク