Evidence fusion with contextual discounting for multi-modality medical image segmentation

要約

情報源は通常不完全であるため、マルチソース情報融合タスクでの信頼性を考慮する必要があります。
この論文では、異なるクラスに対する異なるモダリティの信頼性を考慮しながら、Dempster-Shafer理論の形式を使用してマルチMR画像セグメンテーション結果をマージできる新しい深いフレームワークを提案します。
フレームワークは、エンコーダーデコーダー特徴抽出モジュール、各モダリティの各ボクセルで信念関数を計算する証拠セグメンテーションモジュール、および各モダリティ証拠に割引率のベクトルを割り当てるマルチモダリティ証拠融合モジュールで構成されています。
デンプスターのルールを使用して割引された証拠を組み合わせます。
フレームワーク全体は、セグメンテーションの精度と信頼性を高めるために、割引されたダイスインデックスに基づいて新しい損失関数を最小化することによってトレーニングされます。
この方法は、脳腫瘍を患う1251人の患者のBraTs2021データベースで評価されました。
定量的および定性的な結果は、私たちの方法が最先端技術を上回り、深いニューラルネットワーク内で複数の情報をマージするための効果的な新しいアイデアを実装していることを示しています。

要約(オリジナル)

As information sources are usually imperfect, it is necessary to take into account their reliability in multi-source information fusion tasks. In this paper, we propose a new deep framework allowing us to merge multi-MR image segmentation results using the formalism of Dempster-Shafer theory while taking into account the reliability of different modalities relative to different classes. The framework is composed of an encoder-decoder feature extraction module, an evidential segmentation module that computes a belief function at each voxel for each modality, and a multi-modality evidence fusion module, which assigns a vector of discount rates to each modality evidence and combines the discounted evidence using Dempster’s rule. The whole framework is trained by minimizing a new loss function based on a discounted Dice index to increase segmentation accuracy and reliability. The method was evaluated on the BraTs 2021 database of 1251 patients with brain tumors. Quantitative and qualitative results show that our method outperforms the state of the art, and implements an effective new idea for merging multi-information within deep neural networks.

arxiv情報

著者 Ling Huang,Thierry Denoeux,Pierre Vera,Su Ruan
発行日 2022-06-23 14:36:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク