要約
肺 CT スキャンからの COVID-19 病変の自動描写は、患者の診断と予後を支援します。
感染領域の形状と配置が非対称であるため、この作業は非常に困難です。
複数のスケールで情報を取得すると、グローバル レベルとローカル レベルで特徴を解読し、さまざまなサイズとテクスチャの病変を網羅するのに役立ちます。
CT画像でコロナ感染した肺領域を効率的にセグメンテーションするために、フルスケールのディープスーパーバイズドアテンションネットワーク(FuDSA-Net)を導入します。
このモデルは、ネットワークのさまざまなレベルで取得されたマルチスカラー機能を含む、エンコーディング パスのすべてのレベルからの活性化応答を考慮します。
これは、さまざまな形状、サイズ、およびコントラストのターゲット領域 (病変) をセグメント化するのに役立ちます。
マルチスカラー特性の全範囲を新しい注意メカニズムに組み込むことで、活性化応答と有用な情報を含む場所の選択に優先順位を付けることができます。
デコーダー パスに沿ったロバストで差別的な機能の決定は、詳細な監視によって容易になります。
デコーダ アームの接続は、消失勾配の問題を処理するために改造されています。
実験結果からわかるように、FuDSA-Net は他の最先端のアーキテクチャを凌駕しています。
特に、病変の複雑な形状の特徴付けに関しては。
要約(オリジナル)
Automated delineation of COVID-19 lesions from lung CT scans aids the diagnosis and prognosis for patients. The asymmetric shapes and positioning of the infected regions make the task extremely difficult. Capturing information at multiple scales will assist in deciphering features, at global and local levels, to encompass lesions of variable size and texture. We introduce the Full-scale Deeply Supervised Attention Network (FuDSA-Net), for efficient segmentation of corona-infected lung areas in CT images. The model considers activation responses from all levels of the encoding path, encompassing multi-scalar features acquired at different levels of the network. This helps segment target regions (lesions) of varying shape, size and contrast. Incorporation of the entire gamut of multi-scalar characteristics into the novel attention mechanism helps prioritize the selection of activation responses and locations containing useful information. Determining robust and discriminatory features along the decoder path is facilitated with deep supervision. Connections in the decoder arm are remodeled to handle the issue of vanishing gradient. As observed from the experimental results, FuDSA-Net surpasses other state-of-the-art architectures; especially, when it comes to characterizing complicated geometries of the lesions.
arxiv情報
著者 | Pallabi Dutta,Sushmita Mitra |
発行日 | 2022-10-27 16:05:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google