Dynamic Linear Transformer for 3D Biomedical Image Segmentation

要約

トランスフォーマー ベースのニューラル ネットワークは、自己注意メカニズムからの優れたグローバル情報モデリングにより、多くの生物医学画像セグメンテーション タスクで有望なパフォーマンスを上回りました。
ただし、ほとんどの方法は依然として 2D 医用画像用に設計されており、重要な 3D ボリューム情報は無視されています。
3D Transformer ベースのセグメンテーション方法の主な課題は、自己注意メカニズムによって導入される 2 次の複雑さです \cite{vaswani2017attention}。
この論文では、線形の複雑さを持つエンコーダー/デコーダー スタイルのアーキテクチャを使用して、3D 医用画像セグメンテーションのための新しいトランス アーキテクチャを提案します。
さらに、動的トークンの概念を新たに導入して、自己注意計算のトークン数をさらに削減します。
グローバル情報モデリングを利用して、さまざまな階層段階からの不確実性マップを提供します。
複数の挑戦的な CT 膵臓セグメンテーション データセットでこのメソッドを評価します。
私たちの有望な結果は、新しい3D Transformerベースのセグメンターが、単一の注釈を使用して、有望な非常に実現可能なセグメンテーションパフォーマンスと正確な不確実性の定量化を提供できることを示しています。
コードは https://github.com/freshman97/LinTransUNet で入手できます。

要約(オリジナル)

Transformer-based neural networks have surpassed promising performance on many biomedical image segmentation tasks due to a better global information modeling from the self-attention mechanism. However, most methods are still designed for 2D medical images while ignoring the essential 3D volume information. The main challenge for 3D transformer-based segmentation methods is the quadratic complexity introduced by the self-attention mechanism \cite{vaswani2017attention}. In this paper, we propose a novel transformer architecture for 3D medical image segmentation using an encoder-decoder style architecture with linear complexity. Furthermore, we newly introduce a dynamic token concept to further reduce the token numbers for self-attention calculation. Taking advantage of the global information modeling, we provide uncertainty maps from different hierarchy stages. We evaluate this method on multiple challenging CT pancreas segmentation datasets. Our promising results show that our novel 3D Transformer-based segmentor could provide promising highly feasible segmentation performance and accurate uncertainty quantification using single annotation. Code is available https://github.com/freshman97/LinTransUNet.

arxiv情報

著者 Zheyuan Zhang,Ulas Bagci
発行日 2023-02-01 17:58:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク