要約
Fundus画像の正確なセグメンテーションには高解像度が重要ですが、高解像度の入力を処理するにはかなりのGPUメモリコストがかかり、オーバーヘッドが増加するにつれてパフォーマンスの向上が減少します。
小さなオブジェクトのセグメント化の課題に取り組む際にこの問題に対処するために、最近の研究では、局所的なグローバル融合方法を調査しました。
これらの方法は、ローカル地域を使用して細かい詳細を保持し、ダウンスケールのグローバル画像から長距離コンテキスト情報をキャプチャします。
ただし、複数のフォワードパスの必要性は必然的に重要な計算オーバーヘッドが発生し、推論速度に悪影響を及ぼします。
この論文では、眼底病変セグメンテーションのための単純な高解像度デコーダーネットワークであるHRDecoderを提案します。
高解像度表現学習モジュールを統合して、きめ細かい局所的な特徴と高解像度の融合モジュールをキャプチャして、マルチスケールの予測を融合します。
私たちの方法は、合理的な記憶と計算オーバーヘッドを消費し、満足のいく推論速度を維持しながら、眼底病変の全体的なセグメンテーション精度を効果的に改善します。
IDRIDおよびDDRデータセットの実験結果は、私たちの方法の有効性を示しています。
コードはhttps://github.com/cviu-csu/hrdecoderで入手できます。
要約(オリジナル)
High resolution is crucial for precise segmentation in fundus images, yet handling high-resolution inputs incurs considerable GPU memory costs, with diminishing performance gains as overhead increases. To address this issue while tackling the challenge of segmenting tiny objects, recent studies have explored local-global fusion methods. These methods preserve fine details using local regions and capture long-range context information from downscaled global images. However, the necessity of multiple forward passes inevitably incurs significant computational overhead, adversely affecting inference speed. In this paper, we propose HRDecoder, a simple High-Resolution Decoder network for fundus lesion segmentation. It integrates a high-resolution representation learning module to capture fine-grained local features and a high-resolution fusion module to fuse multi-scale predictions. Our method effectively improves the overall segmentation accuracy of fundus lesions while consuming reasonable memory and computational overhead, and maintaining satisfying inference speed. Experimental results on the IDRiD and DDR datasets demonstrate the effectiveness of our method. Code is available at https://github.com/CVIU-CSU/HRDecoder.
arxiv情報
著者 | Ziyuan Ding,Yixiong Liang,Shichao Kan,Qing Liu |
発行日 | 2025-04-11 16:33:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google