Generative appearance replay for continual unsupervised domain adaptation

要約

ディープラーニングモデルは、大量のラベル付きデータで学習させると、高い精度を達成することができます。しかし、実世界のシナリオでは、多くの場合、いくつかの課題があります。学習データは分割して利用できるようになることもあれば、複数の異なるドメインから発信されることもあり、学習用のラベルが含まれていないこともあります。また、医療分野などでは、プライバシー保護の観点から、過去に閲覧したデータの保存を禁止するなどの制約がある場合が多い。本研究では、このような課題に対処するため、ドメインシフトを伴う継続的な学習シナリオにおける教師なしセグメンテーションを研究する。そのために、我々はGarDA (Generative Appearance Replay for continual Domain Adaptation) を導入する。これは、ラベル付けされていないデータを用いて新しいドメインにセグメンテーションモデルを逐次適応させることができる生成再生に基づくアプローチである。教師なし領域適応(UDA)とは対照的に、一連の領域への継続的な適応は、複数の領域からの情報の活用と統合を可能にする。本手法は、従来の漸進的UDAとは異なり、以前に見たデータにアクセスする必要がないため、多くの実用的なシナリオに適用可能である。臓器やモダリティの異なる2つのデータセットでGarDAを評価したところ、既存の手法を大幅に上回る性能を示した。

要約(オリジナル)

Deep learning models can achieve high accuracy when trained on large amounts of labeled data. However, real-world scenarios often involve several challenges: Training data may become available in installments, may originate from multiple different domains, and may not contain labels for training. Certain settings, for instance medical applications, often involve further restrictions that prohibit retention of previously seen data due to privacy regulations. In this work, to address such challenges, we study unsupervised segmentation in continual learning scenarios that involve domain shift. To that end, we introduce GarDA (Generative Appearance Replay for continual Domain Adaptation), a generative-replay based approach that can adapt a segmentation model sequentially to new domains with unlabeled data. In contrast to single-step unsupervised domain adaptation (UDA), continual adaptation to a sequence of domains enables leveraging and consolidation of information from multiple domains. Unlike previous approaches in incremental UDA, our method does not require access to previously seen data, making it applicable in many practical scenarios. We evaluate GarDA on two datasets with different organs and modalities, where it substantially outperforms existing techniques.

arxiv情報

著者 Boqi Chen,Kevin Thandiackal,Pushpak Pati,Orcun Goksel
発行日 2023-01-03 17:04:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク