Localizing Anatomical Landmarks in Ocular Images using Zoom-In Attentive Networks

要約

解剖学的ランドマークのローカライズは、医用画像解析における重要なタスクです。
ただし、ローカライズするランドマークには、目立った視覚的特徴がないことがよくあります。
それらの場所はとらえどころがなく、背景と混同されやすいため、正確な位置特定は周囲の領域によって形成されるコンテキストに大きく依存します。
さらに、必要な精度は通常、セグメンテーションやオブジェクト検出タスクよりも高くなります。
したがって、ローカリゼーションには、セグメンテーションや検出とは異なる独自の課題があります。
この論文では、眼球画像における解剖学的ランドマークの位置特定のためのズームイン注意深いネットワーク (ZIAN) を提案します。
まず、粗いものから細かいものへ、または「ズームイン」戦略を利用して、さまざまなスケールでコンテキスト化された機能を学習します。
次に、注意深い融合モジュールを採用して、マルチスケール機能を集約します。これは、1) 複数の ROI から相補的な機能を学習する複数の関心領域 (ROI) スキームを備えた共同注意ネットワーク、2) 注意で構成されます。
マルチ ROI 機能と非 ROI 機能を統合するベースの融合モジュール。
ZIAN を 2 つのオープン チャレンジ タスク、すなわち、眼底画像の中心窩の局在化と AS-OCT 画像の強膜棘の局在化で評価しました。
実験は、ZIAN が有望なパフォーマンスを達成し、最先端の位置特定方法よりも優れていることを示しています。
ZIAN のソース コードとトレーニング済みモデルは、https://github.com/leixiaofeng-astar/OMIA9-ZIAN で入手できます。

要約(オリジナル)

Localizing anatomical landmarks are important tasks in medical image analysis. However, the landmarks to be localized often lack prominent visual features. Their locations are elusive and easily confused with the background, and thus precise localization highly depends on the context formed by their surrounding areas. In addition, the required precision is usually higher than segmentation and object detection tasks. Therefore, localization has its unique challenges different from segmentation or detection. In this paper, we propose a zoom-in attentive network (ZIAN) for anatomical landmark localization in ocular images. First, a coarse-to-fine, or ‘zoom-in’ strategy is utilized to learn the contextualized features in different scales. Then, an attentive fusion module is adopted to aggregate multi-scale features, which consists of 1) a co-attention network with a multiple regions-of-interest (ROIs) scheme that learns complementary features from the multiple ROIs, 2) an attention-based fusion module which integrates the multi-ROIs features and non-ROI features. We evaluated ZIAN on two open challenge tasks, i.e., the fovea localization in fundus images and scleral spur localization in AS-OCT images. Experiments show that ZIAN achieves promising performances and outperforms state-of-the-art localization methods. The source code and trained models of ZIAN are available at https://github.com/leixiaofeng-astar/OMIA9-ZIAN.

arxiv情報

著者 Xiaofeng Lei,Shaohua Li,Xinxing Xu,Huazhu Fu,Yong Liu,Yih-Chung Tham,Yangqin Feng,Mingrui Tan,Yanyu Xu,Jocelyn Hui Lin Goh,Rick Siow Mong Goh,Ching-Yu Cheng
発行日 2022-12-22 08:57:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク