要約
連合学習と継続学習は、病理組織画像に AI システムを展開するために必要な、継続的に変化するデータに対するプライバシーを意識した学習を可能にするアプローチとして確立されています。
ただし、動的な世界では、時間の経過とともにデータが変化するため、機関間および時間的にデータのシフトが発生する可能性があります。
これは 2 つの問題につながります。1 つはシフトされたデータでトレーニングされたクライアントからのデータを集約することで中央モデルが劣化するクライアント ドリフト、もう 1 つは患者集団の変化などの一時的なシフトによる壊滅的な忘却です。
どちらも、以前に確認されたデータまたは空間的に分散されたトレーニングのモデルのパフォーマンスを低下させる傾向があります。
どちらの問題もデータシフトという同じ根本的な問題から生じているにもかかわらず、既存の研究はそれらを個別にしか扱っていません。
この研究では、公開参照データセットでクライアントの更新を評価し、これを使用してトレーニング プロセスを空間的および時間的にシフト不変モデルに誘導する、私たちが提案する動的バーロー連続性を使用することで、クライアント ドリフトと壊滅的な忘却を共同で軽減できる方法を紹介します。
。
私たちは、組織病理学データセット BCSS および Semicol に対するアプローチを評価し、クライアント ドリフトではダイス スコアを 15.8% から 71.6% に、壊滅的忘却では 42.5% から 62.8% も改善することで、私たちの方法が非常に効果的であることを証明しました。
これにより、時空間的なシフト不変性を確立することで動的学習が可能になります。
要約(オリジナル)
Federated- and Continual Learning have been established as approaches to enable privacy-aware learning on continuously changing data, as required for deploying AI systems in histopathology images. However, data shifts can occur in a dynamic world, spatially between institutions and temporally, due to changing data over time. This leads to two issues: Client Drift, where the central model degrades from aggregating data from clients trained on shifted data, and Catastrophic Forgetting, from temporal shifts such as changes in patient populations. Both tend to degrade the model’s performance of previously seen data or spatially distributed training. Despite both problems arising from the same underlying problem of data shifts, existing research addresses them only individually. In this work, we introduce a method that can jointly alleviate Client Drift and Catastrophic Forgetting by using our proposed Dynamic Barlow Continuity that evaluates client updates on a public reference dataset and uses this to guide the training process to a spatially and temporally shift-invariant model. We evaluate our approach on the histopathology datasets BCSS and Semicol and prove our method to be highly effective by jointly improving the dice score as much as from 15.8% to 71.6% in Client Drift and from 42.5% to 62.8% in Catastrophic Forgetting. This enables Dynamic Learning by establishing spatio-temporal shift-invariance.
arxiv情報
著者 | Niklas Babendererde,Haozhe Zhu,Moritz Fuchs,Jonathan Stieber,Anirban Mukhopadhyay |
発行日 | 2025-01-08 16:06:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google