要約
タイトル:医療画像セグメンテーションのためのデータスケーラブル・トランスフォーマー:アーキテクチャ、モデル効率、およびベンチマーク
要約:
– トランスフォーマーは、自然言語処理やコンピュータビジョンで驚異的なパフォーマンスを発揮しています。
– しかし、既存のビジョン・トランスフォーマーは、制限された医療データから学習することが困難であり、多様な医療画像タスクで汎用化することができません。
– これらの課題に対処するために、一般化可能な3D医療画像セグメンテーションのためにデータスケラブルなトランスフォーマー、MedFormerを提案します。
– 当社のアプローチは、望ましい帰納バイアス、線形複雑度アテンションを用いた階層的モデリング、および空間的および意味的情報をグローバルに統合する多スケール機能融合の3つの主要要素を組み合わせています。
– MedFormerは事前学習なしに、小規模から大規模のデータにわたって学習できます。
-包括的な実験により、MedFormerが幅広い下流臨床アプリケーションを促進するための堅牢なベースラインと公正な比較を提供する、複数のモダリティ(CTやMRI)と様々な医療ターゲット(健康な臓器、病気の組織や腫瘍など)をカバーする7つの公共データセットでCNNやビジョン・トランスフォーマーを上回る多目的のセグメンテーションバックボーンとしての潜在的な可能性を実証しています。
– 当社は、当社のモデルと評価パイプラインへの公開アクセスを提供し、堅固なベースラインと公正な比較を提供することで、幅広い下流臨床アプリケーションの推進を促進します。
要約(オリジナル)
Transformers have demonstrated remarkable performance in natural language processing and computer vision. However, existing vision Transformers struggle to learn from limited medical data and are unable to generalize on diverse medical image tasks. To tackle these challenges, we present MedFormer, a data-scalable Transformer designed for generalizable 3D medical image segmentation. Our approach incorporates three key elements: a desirable inductive bias, hierarchical modeling with linear-complexity attention, and multi-scale feature fusion that integrates spatial and semantic information globally. MedFormer can learn across tiny- to large-scale data without pre-training. Comprehensive experiments demonstrate MedFormer’s potential as a versatile segmentation backbone, outperforming CNNs and vision Transformers on seven public datasets covering multiple modalities (e.g., CT and MRI) and various medical targets (e.g., healthy organs, diseased tissues, and tumors). We provide public access to our models and evaluation pipeline, offering solid baselines and unbiased comparisons to advance a wide range of downstream clinical applications.
arxiv情報
著者 | Yunhe Gao,Mu Zhou,Di Liu,Zhennan Yan,Shaoting Zhang,Dimitris N. Metaxas |
発行日 | 2023-04-05 01:56:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI