要約
スケルトン化は、ジオメトリとトポロジーをコンパクトにエンコードする画像から薄い表現を抽出します。
これらの表現は、船舶セグメンテーションなどの医療タスクを支援し、曲線構造の接続性を維持するための重要なトポロジカルな事前になっています。
既存の互換性のあるスケルトン化アルゴリズムは重要なトレードオフに直面しています。形態ベースのアプローチは計算効率が高いが、頻繁に破損する傾向がありますが、トポロジーを提供する方法にはかなりの計算リソースが必要です。
学習可能なコンポーネントで反復的な骨格化アルゴリズムをトレーニングするための新しいフレームワークを提案します。
このフレームワークは、合成データ、タスク固有の増強、および完全に微分反復的なアルゴリズムで薄く接続された骨格を生成するコンパクトなニューラルネットワークを学ぶためのモデル蒸留戦略を活用します。
私たちの方法は、高精度を維持し、微調整せずに新しいドメインに効果的に一般化しながら、トポロジ制約のアルゴリズムよりも100倍のスピードアップを示しています。
2Dおよび3Dタスクでのベンチマークとダウンストリーム検証は、その計算効率と現実世界の適用性を示しています
要約(オリジナル)
Skeletonization extracts thin representations from images that compactly encode their geometry and topology. These representations have become an important topological prior for preserving connectivity in curvilinear structures, aiding medical tasks like vessel segmentation. Existing compatible skeletonization algorithms face significant trade-offs: morphology-based approaches are computationally efficient but prone to frequent breakages, while topology-preserving methods require substantial computational resources. We propose a novel framework for training iterative skeletonization algorithms with a learnable component. The framework leverages synthetic data, task-specific augmentation, and a model distillation strategy to learn compact neural networks that produce thin, connected skeletons with a fully differentiable iterative algorithm. Our method demonstrates a 100 times speedup over topology-constrained algorithms while maintaining high accuracy and generalizing effectively to new domains without fine-tuning. Benchmarking and downstream validation in 2D and 3D tasks demonstrate its computational efficiency and real-world applicability
arxiv情報
著者 | Luis D. Reyes Vargas,Martin J. Menten,Johannes C. Paetzold,Nassir Navab,Mohammad Farid Azampour |
発行日 | 2025-03-10 14:27:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google