MedContext: Learning Contextual Cues for Efficient Volumetric Medical Segmentation

要約

体積医療セグメンテーションは、さまざまな意味領域を描写する 3D 医療画像分析の重要なコンポーネントです。
ディープ ニューラル ネットワークは容積医療セグメンテーションを大幅に改善しましたが、一般にパフォーマンスを向上させるには大規模な注釈付きデータが必要であり、その取得には費用がかかり、法外な費用がかかる可能性があります。
この制限に対処するために、既存の研究では通常、転移学習を実行するか、代表的な特徴を学習するための専用の事前トレーニング微調整ステージを設計します。
ただし、ソース ドメインとターゲット ドメインの不一致により、体積データの最適な表現を学習することが困難になる可能性があります。その一方で、マルチステージ トレーニングではより高いコンピューティングと、ステージ固有の設計選択肢の慎重な選択が必要になります。
対照的に、私たちは、アーキテクチャに依存せず、3D 医療セグメンテーション用の既存のトレーニング フレームワークに組み込むことができる、MedContext と呼ばれるユニバーサル トレーニング フレームワークを提案します。
私たちのアプローチは、大規模な注釈付きボリューム医療データや専用の事前トレーニング微調整ステージを必要とせずに、教師付きボクセルセグメンテーションタスクと組み合わせて自己教師付きコンテキストキューを効果的に学習します。
提案されたアプローチは、出力セグメンテーション空間で欠落している器官または器官の一部を再構築する方法を学習することにより、ネットワークに文脈上の知識を誘導します。
MedContext の有効性は、複数の 3D 医療データセットと 4 つの最先端のモデル アーキテクチャにわたって検証されています。
私たちのアプローチは、ショット数が少ないデータのシナリオであっても、データセットやさまざまなアーキテクチャにわたってセグメンテーションのパフォーマンスが一貫して向上していることを示しています。
私たちのコードと事前トレーニングされたモデルは https://github.com/hananshafi/MedContext で入手できます。

要約(オリジナル)

Volumetric medical segmentation is a critical component of 3D medical image analysis that delineates different semantic regions. Deep neural networks have significantly improved volumetric medical segmentation, but they generally require large-scale annotated data to achieve better performance, which can be expensive and prohibitive to obtain. To address this limitation, existing works typically perform transfer learning or design dedicated pretraining-finetuning stages to learn representative features. However, the mismatch between the source and target domain can make it challenging to learn optimal representation for volumetric data, while the multi-stage training demands higher compute as well as careful selection of stage-specific design choices. In contrast, we propose a universal training framework called MedContext that is architecture-agnostic and can be incorporated into any existing training framework for 3D medical segmentation. Our approach effectively learns self supervised contextual cues jointly with the supervised voxel segmentation task without requiring large-scale annotated volumetric medical data or dedicated pretraining-finetuning stages. The proposed approach induces contextual knowledge in the network by learning to reconstruct the missing organ or parts of an organ in the output segmentation space. The effectiveness of MedContext is validated across multiple 3D medical datasets and four state-of-the-art model architectures. Our approach demonstrates consistent gains in segmentation performance across datasets and different architectures even in few-shot data scenarios. Our code and pretrained models are available at https://github.com/hananshafi/MedContext

arxiv情報

著者 Hanan Gani,Muzammal Naseer,Fahad Khan,Salman Khan
発行日 2024-02-27 17:58:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク