要約
画像パッチの再構成に基づく自己教師あり学習法は、自動エンコーダーのトレーニングで大きな成功を収めており、その事前トレーニング済みの重みを転送して、画像理解の他のダウンストリーム タスクを微調整することができます。
ただし、既存の方法では、再構成されたパッチのさまざまな重要性や、解剖学的構造の対称性を 3D 医用画像に適用する際の研究はほとんど行われていません。
この論文では、3D 脳 MRI セグメンテーション タスクのためのビジョン トランスフォーマー (ViT) に基づく新しい Attentive Symmetric Auto-encoder (ASA) を提案します。
自動エンコーダーに有益な画像領域を強制的に回復させると、滑らかな画像パッチを回復するよりも、より識別可能な表現を収穫できると推測します。
次に、勾配ベースのメトリックを採用して、各画像パッチの重要性を推定します。
トレーニング前の段階では、提案された自動エンコーダーは、勾配メトリックに従って有益なパッチを再構築するために、より多くの注意を払います。
さらに、脳構造の事前に頼り、効果的な機能を取得するために、長距離であるが空間的に対称な領域間の相関をより適切に活用するための対称位置エンコーディング(SPE)メソッドを開発します。
実験結果は、提案された注意深い対称自動エンコーダーが、3 つの脳 MRI セグメンテーション ベンチマークで最先端の自己教師あり学習法と医用画像セグメンテーション モデルよりも優れていることを示しています。
要約(オリジナル)
Self-supervised learning methods based on image patch reconstruction have witnessed great success in training auto-encoders, whose pre-trained weights can be transferred to fine-tune other downstream tasks of image understanding. However, existing methods seldom study the various importance of reconstructed patches and the symmetry of anatomical structures, when they are applied to 3D medical images. In this paper we propose a novel Attentive Symmetric Auto-encoder (ASA) based on Vision Transformer (ViT) for 3D brain MRI segmentation tasks. We conjecture that forcing the auto-encoder to recover informative image regions can harvest more discriminative representations, than to recover smooth image patches. Then we adopt a gradient based metric to estimate the importance of each image patch. In the pre-training stage, the proposed auto-encoder pays more attention to reconstruct the informative patches according to the gradient metrics. Moreover, we resort to the prior of brain structures and develop a Symmetric Position Encoding (SPE) method to better exploit the correlations between long-range but spatially symmetric regions to obtain effective features. Experimental results show that our proposed attentive symmetric auto-encoder outperforms the state-of-the-art self-supervised learning methods and medical image segmentation models on three brain MRI segmentation benchmarks.
arxiv情報
著者 | Junjia Huang,Haofeng Li,Guanbin Li,Xiang Wan |
発行日 | 2022-09-19 09:43:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google