要約
自動セグメンテーションは、医療画像分析とコンピューター支援介入において極めて重要な役割を果たします。
畳み込みニューラルネットワーク(CNNS)に基づいた既存の方法の有望なパフォーマンスにもかかわらず、回転や反射等語などの画像の有用な等量特性を無視します。
この制限は、パフォーマンスを低下させ、特に明示的な方向がない船舶セグメンテーションなどのアプリケーションでは、一貫性のない予測につながる可能性があります。
既存の同等の学習アプローチはこれらの問題を軽減しようとしますが、学習コスト、モデルサイズ、またはその両方を大幅に増加させます。
これらの課題を克服するために、u-netアーキテクチャへの効率的な対称回転(SRE)畳み込み(SRE)カーネルの実装の新しいアプリケーションを提案し、回転と反射効果の特徴を学習しながら、モデルサイズを削減します。
劇的に。
網膜容器の眼底イメージングでのセグメンテーションパフォーマンスを改善することにより、方法の有効性を検証します。
提案されているSRE U-NETは、回転した画像の処理において標準のU-NETを大幅に上回るだけでなく、既存の等拡大学習方法を上回り、訓練可能なパラメーターの数と小さいメモリコストでそうします。
このコードは、https://github.com/onofreylab/sre_conv_segm_isbi2025で入手できます。
要約(オリジナル)
Automated segmentation plays a pivotal role in medical image analysis and computer-assisted interventions. Despite the promising performance of existing methods based on convolutional neural networks (CNNs), they neglect useful equivariant properties for images, such as rotational and reflection equivariance. This limitation can decrease performance and lead to inconsistent predictions, especially in applications like vessel segmentation where explicit orientation is absent. While existing equivariant learning approaches attempt to mitigate these issues, they substantially increase learning cost, model size, or both. To overcome these challenges, we propose a novel application of an efficient symmetric rotation-equivariant (SRE) convolutional (SRE-Conv) kernel implementation to the U-Net architecture, to learn rotation and reflection-equivariant features, while also reducing the model size dramatically. We validate the effectiveness of our method through improved segmentation performance on retina vessel fundus imaging. Our proposed SRE U-Net not only significantly surpasses standard U-Net in handling rotated images, but also outperforms existing equivariant learning methods and does so with a reduced number of trainable parameters and smaller memory cost. The code is available at https://github.com/OnofreyLab/sre_conv_segm_isbi2025.
arxiv情報
著者 | Jiazhen Zhang,Yuexi Du,Nicha C. Dvornek,John A. Onofrey |
発行日 | 2025-01-24 15:54:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google