要約
META の Segment Anything モデルの成功に触発された現在のインタラクティブ セグメンテーション アプローチは、顕著な進歩を遂げていますが、実際の臨床シナリオでの実用化を妨げる重大な制限があります。
これらには、3D データ上の 2D モデルのスライスごとの操作、反復改良の欠如、不十分な評価実験など、非現実的な人間の対話要件が含まれます。
これらの欠点により、モデルのパフォーマンスの正確な評価が妨げられ、研究全体で一貫性のない結果が生じます。
IntRaBench は、現実的で臨床的に関連性のあるシナリオでインタラクティブなセグメンテーション手法を評価するための包括的で再現可能なフレームワークを提供することで、これらの課題を克服します。
これには、多様なデータセット、ターゲット構造、セグメンテーション モデルが含まれており、新しいモデルとプロンプト戦略のシームレスな統合を可能にする柔軟なコードベースを提供します。
さらに、臨床医の介入を最小限に抑えるための高度な技術を導入し、2D モデルと 3D モデル間の公平な比較を保証します。
IntRaBench をオープンソース化することで、研究コミュニティがモデルとプロンプト技術を統合し、3D 医療画像におけるインタラクティブ セグメンテーション モデルの継続的かつ透過的な評価を確保できるようにします。
要約(オリジナル)
Current interactive segmentation approaches, inspired by the success of META’s Segment Anything model, have achieved notable advancements, however, they come with substantial limitations that hinder their practical application in real clinical scenarios. These include unrealistic human interaction requirements, such as slice-by-slice operations for 2D models on 3D data, a lack of iterative refinement, and insufficient evaluation experiments. These shortcomings prevent accurate assessment of model performance and lead to inconsistent outcomes across studies. IntRaBench overcomes these challenges by offering a comprehensive and reproducible framework for evaluating interactive segmentation methods in realistic, clinically relevant scenarios. It includes diverse datasets, target structures, and segmentation models, and provides a flexible codebase that allows seamless integration of new models and prompting strategies. Additionally, we introduce advanced techniques to minimize clinician interaction, ensuring fair comparisons between 2D and 3D models. By open-sourcing IntRaBench, we invite the research community to integrate their models and prompting techniques, ensuring continuous and transparent evaluation of interactive segmentation models in 3D medical imaging.
arxiv情報
著者 | Constantin Ulrich,Tassilo Wald,Emily Tempus,Maximilian Rokuss,Paul F. Jaeger,Klaus Maier-Hein |
発行日 | 2024-11-12 15:47:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google