要約
マルチオルガンセグメンテーションは、多くの臨床タスクで最も重要な重要性を保持しています。
実際には、大規模な完全に注釈付きのデータセットと比較して、複数の小さなデータセットがよりアクセスしやすく、臓器は一貫してラベル付けされていません。
通常、これらのデータセットごとに個々のモデルがトレーニングされますが、これはモデル学習にデータを使用する効果的な方法ではありません。
ラベルの競合とデータの不均衡の問題により、いくつかの部分的にラベル付けされたデータセットから堅牢に学習できる単一のモデルをトレーニングすることは困難なままです。
Mo-Ctransを提案します。そのような問題を克服できる単一のモデルです。
MO-CTRANSには、CNNベースのエンコーダーとトランスベースのデコーダーが含まれており、マルチ解像度で接続されています。
タスク固有のトークンは、ラベルの不一致を区別するのに役立つデコーダーに導入されています。
私たちの方法は評価され、いくつかのベースラインモデルと、異なるビュー(つまり、軸および冠状)で取得され、異なる臓器(すなわち肝臓、腎臓、脾臓)で注釈が付けられた腹部MRIデータセットの最先端(SOTA)ソリューションと比較されました。
私たちの方法は、比較方法よりも優れたパフォーマンス(ほとんどが統計的に有意でした)を達成しました。
githubリンク:https://github.com/naisops/mo-ctrans。
要約(オリジナル)
Multi-organ segmentation holds paramount significance in many clinical tasks. In practice, compared to large fully annotated datasets, multiple small datasets are often more accessible and organs are not labelled consistently. Normally, an individual model is trained for each of these datasets, which is not an effective way of using data for model learning. It remains challenging to train a single model that can robustly learn from several partially labelled datasets due to label conflict and data imbalance problems. We propose MO-CTranS: a single model that can overcome such problems. MO-CTranS contains a CNN-based encoder and a Transformer-based decoder, which are connected in a multi-resolution manner. Task-specific tokens are introduced in the decoder to help differentiate label discrepancies. Our method was evaluated and compared to several baseline models and state-of-the-art (SOTA) solutions on abdominal MRI datasets that were acquired in different views (i.e. axial and coronal) and annotated for different organs (i.e. liver, kidney, spleen). Our method achieved better performance (most were statistically significant) than the compared methods. Github link: https://github.com/naisops/MO-CTranS.
arxiv情報
著者 | Zhendi Gong,Susan Francis,Eleanor Cox,Stamatios N. Sotiropoulos,Dorothee P. Auer,Guoping Qiu,Andrew P. French,Xin Chen |
発行日 | 2025-03-28 16:00:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google