Dimensionality Reduction and Nearest Neighbors for Improving Out-of-Distribution Detection in Medical Image Segmentation

要約

臨床的に導入された深層学習ベースのセグメンテーション モデルは、トレーニング分布外のデータでは失敗することが知られています。
臨床医がセグメンテーションを確認する間、これらのモデルはほとんどの場合に良好に機能する傾向があり、自動化バイアスが悪化する可能性があります。
したがって、モデルが失敗する可能性があることを臨床医に警告するには、推論時に分布外の画像を検出することが重要です。
この研究では、マハラノビス距離 (MD) を、T1 強調磁気共鳴画像法とコンピューター断層撮影法で肝臓をセグメント化した 4 つの Swin UNETR および nnU-net モデルのボトルネック特徴に事後的に適用しました。
主成分分析または均一多様体近似と投影のいずれかを使用してボトルネック フィーチャの次元を削減することで、モデルが失敗した画像が高性能かつ最小限の計算負荷で検出されました。
さらに、この研究では、MD に代わるノンパラメトリックな代替手段である k 番目最近傍距離 (KNN) を検討しました。
KNN は、生のボトルネック機能と平均プールされたボトルネック機能の両方に適用された場合、MD よりもスケーラビリティとパフォーマンスが大幅に向上しました。

要約(オリジナル)

Clinically deployed deep learning-based segmentation models are known to fail on data outside of their training distributions. While clinicians review the segmentations, these models tend to perform well in most instances, which could exacerbate automation bias. Therefore, detecting out-of-distribution images at inference is critical to warn the clinicians that the model likely failed. This work applied the Mahalanobis distance (MD) post hoc to the bottleneck features of four Swin UNETR and nnU-net models that segmented the liver on T1-weighted magnetic resonance imaging and computed tomography. By reducing the dimensions of the bottleneck features with either principal component analysis or uniform manifold approximation and projection, images the models failed on were detected with high performance and minimal computational load. In addition, this work explored a non-parametric alternative to the MD, a k-th nearest neighbors distance (KNN). KNN drastically improved scalability and performance over MD when both were applied to raw and average-pooled bottleneck features.

arxiv情報

著者 McKell Woodland,Nihil Patel,Austin Castelo,Mais Al Taie,Mohamed Eltaher,Joshua P. Yung,Tucker J. Netherton,Tiffany L. Calderone,Jessica I. Sanchez,Darrel W. Cleere,Ahmed Elsaiey,Nakul Gupta,David Victor,Laura Beretta,Ankit B. Patel,Kristy K. Brock
発行日 2024-10-02 16:00:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク