要約
ワンショットの医療ランドマーク検出は多くの注目を集め、ラベル効率の高いトレーニング プロセスで大きな成功を収めています。
ただし、既存のワンショット学習方法は単一ドメインに高度に特化しており、マルチドメインのラベルなしデータの状況ではドメインの優先順位に大きく影響されます。
さらに、ワンショット学習は堅牢ではなく、次善の画像に注釈を付けるときにパフォーマンスの低下に直面します。
これらの問題に取り組むために、私たちは、ユニバーサル ワンショット検出 (UOD) と呼ばれる、マルチドメイン医療画像を処理するためのドメイン適応型ワンショット ランドマーク検出フレームワークの開発に頼っています。
UOD は 2 つのステージと、ドメイン固有のモジュールとドメイン共有モジュールの組み合わせとして設計された 2 つの対応するユニバーサル モデルで構成されます。
最初の段階では、ドメイン適応畳み込みモデルが自己教師学習され、擬似ランドマーク ラベルが生成されます。
第 2 段階では、ドメインの優先順位を排除し、マルチドメイン データのグローバル コンテキストを構築するドメイン適応トランスフォーマーを設計します。
各ドメインの注釈付きサンプルは 1 つだけトレーニングに利用できますが、ドメイン共有モジュールは、UOD がすべてのワンショット サンプルを集約して、より堅牢で正確なランドマークを検出するのに役立ちます。
私たちは、さまざまな解剖学的領域 (つまり、頭、手、胸部) で広く使用されている 3 つの公開 X 線データセットで提案された UOD を定性的および定量的に調査し、各領域で最先端のパフォーマンスを取得しました。
コードは https://github.com/heqin-zhu/UOD_universal_oneshot_detection で入手できます。
要約(オリジナル)
One-shot medical landmark detection gains much attention and achieves great success for its label-efficient training process. However, existing one-shot learning methods are highly specialized in a single domain and suffer domain preference heavily in the situation of multi-domain unlabeled data. Moreover, one-shot learning is not robust that it faces performance drop when annotating a sub-optimal image. To tackle these issues, we resort to developing a domain-adaptive one-shot landmark detection framework for handling multi-domain medical images, named Universal One-shot Detection (UOD). UOD consists of two stages and two corresponding universal models which are designed as combinations of domain-specific modules and domain-shared modules. In the first stage, a domain-adaptive convolution model is self-supervised learned to generate pseudo landmark labels. In the second stage, we design a domain-adaptive transformer to eliminate domain preference and build the global context for multi-domain data. Even though only one annotated sample from each domain is available for training, the domain-shared modules help UOD aggregate all one-shot samples to detect more robust and accurate landmarks. We investigated both qualitatively and quantitatively the proposed UOD on three widely-used public X-ray datasets in different anatomical domains (i.e., head, hand, chest) and obtained state-of-the-art performances in each domain. The code is available at https://github.com/heqin-zhu/UOD_universal_oneshot_detection.
arxiv情報
著者 | Heqin Zhu,Quan Quan,Qingsong Yao,Zaiyi Liu,S. kevin Zhou |
発行日 | 2023-07-12 07:00:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google