Knowledge Transfer via Multi-Head Feature Adaptation for Whole Slide Image Classification

要約

ソース ドメインから同じまたは類似のターゲット ドメインに事前知識を転送すると、ターゲット ドメインでのモデルのパフォーマンスを大幅に向上させることができます。
ただし、タスクの不一致やドメインの移行により、ソース ドメインからの知識を直接活用することは困難です。
さまざまなタスクとドメイン間のギャップを埋めるために、マルチヘッド機能適応モジュールを提案します。これは、ソース機能空間の機能をターゲット空間により似た新しい空間に投影します。
1 つのデータセット内の WSI の数が少なすぎて満足のいくパフォーマンスを達成できない可能性があるため、知識の伝達はスライド全体の画像 (WSI) 分類において特に重要です。
したがって、WSI 分類は私たちの方法にとって理想的なテストベッドであり、WSI 分類に複数の知識伝達方法を適用します。
実験結果は、データセット内の WSI の数に関係なく、ナレッジ トランスファーを備えたモデルが、ゼロからトレーニングされたモデルよりも大幅に優れていることを示しています。
、TCGA-RCC、TCGA-NSCLC、および Camelyon16 データセットを含みます。

要約(オリジナル)

Transferring prior knowledge from a source domain to the same or similar target domain can greatly enhance the performance of models on the target domain. However, it is challenging to directly leverage the knowledge from the source domain due to task discrepancy and domain shift. To bridge the gaps between different tasks and domains, we propose a Multi-Head Feature Adaptation module, which projects features in the source feature space to a new space that is more similar to the target space. Knowledge transfer is particularly important in Whole Slide Image (WSI) classification since the number of WSIs in one dataset might be too small to achieve satisfactory performance. Therefore, WSI classification is an ideal testbed for our method, and we adapt multiple knowledge transfer methods for WSI classification. The experimental results show that models with knowledge transfer outperform models that are trained from scratch by a large margin regardless of the number of WSIs in the datasets, and our method achieves state-of-the-art performances among other knowledge transfer methods on multiple datasets, including TCGA-RCC, TCGA-NSCLC, and Camelyon16 datasets.

arxiv情報

著者 Conghao Xiong,Yi Lin,Hao Chen,Joseph Sung,Irwin King
発行日 2023-03-10 08:29:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク