要約
3D医療画像におけるすべての病理学的所見の正確なセグメンテーションは、既存のデータセットで注釈が付けられたいくつかの病理学クラスのみを検出することに限定されているため、3D医療画像におけるすべての病理学的所見の正確なセグメンテーションのままです。
これに対処するために、病理のセグメンテーションを、監視されていない視覚的異常セグメンテーション(UVAS)問題としてフレーム化し、健康なパターンと比較して病理学的パターンの固有の希少性を活用します。
2つの重要なイノベーションを備えた既存の密度ベースのUVASフレームワークを強化します。(1)特徴抽出のための密度の高い自己監視学習(SSL)、監視前のトレーニングの必要性を排除し、(2)学習し、学習し、マスキングに不均一な密な特徴として
手作りの位置エンコーディングを置き換えるコンディショニング変数。
30,000を超える非標識3D CTボリュームでトレーニングされたモデル、スクリーナーは、多様な病理を伴う1,820のスキャンを含む4つの大規模なテストデータセットで既存のUVASメソッドを上回ります。
コードと事前に訓練されたモデルが公開されます。
要約(オリジナル)
Accurate segmentation of all pathological findings in 3D medical images remains a significant challenge, as supervised models are limited to detecting only the few pathology classes annotated in existing datasets. To address this, we frame pathology segmentation as an unsupervised visual anomaly segmentation (UVAS) problem, leveraging the inherent rarity of pathological patterns compared to healthy ones. We enhance the existing density-based UVAS framework with two key innovations: (1) dense self-supervised learning (SSL) for feature extraction, eliminating the need for supervised pre-training, and (2) learned, masking-invariant dense features as conditioning variables, replacing hand-crafted positional encodings. Trained on over 30,000 unlabeled 3D CT volumes, our model, Screener, outperforms existing UVAS methods on four large-scale test datasets comprising 1,820 scans with diverse pathologies. Code and pre-trained models will be made publicly available.
arxiv情報
著者 | Mikhail Goncharov,Eugenia Soboleva,Mariia Donskova,Ivan Oseledets,Marina Munkhoeva,Maxim Panov |
発行日 | 2025-02-12 11:37:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google