要約
いくつかのバイナリマスクまたは確率マスクからコンセンサスセグメンテーションを抽出することは、評価者間の変動性の分析や複数のニューラルネットワーク出力の融合などのさまざまなタスクを解決するために重要です。
このようなコンセンサス セグメンテーションを取得するために最も広く使用されている方法の 1 つは、STAPLE アルゴリズムです。
この論文では、まず、そのアルゴリズムの出力が画像の背景サイズと事前アルゴリズムの選択によって大きく影響されることを実証します。
次に、画像の背景サイズに完全に依存しない、慎重に選択された距離の Fr\'{e}chet 平均に基づいてバイナリまたは確率的コンセンサス セグメンテーションを構築する新しい方法を提案します。
この基準を最適化するヒューリスティックなアプローチを提供し、ボクセルのクラスが、さまざまなマスク、ボクセルが属する連結成分、セグメント化した評価者のグループまでのボクセルごとの距離によって完全に決定されるようにします。
我々は、いくつかのデータセットに対して我々の手法をSTAPLE法および単純セグメンテーション平均法と広範囲に比較し、多数決投票とSTAPLEの間の中間サイズのバイナリコンセンサスマスクが得られ、マスク平均法やSTAPLE法とは異なる事後確率が得られることを示しました。
私たちのコードは https://gitlab.inria.fr/dhamzaou/jaccardmap で入手できます。
要約(オリジナル)
The extraction of consensus segmentations from several binary or probabilistic masks is important to solve various tasks such as the analysis of inter-rater variability or the fusion of several neural network outputs. One of the most widely used methods to obtain such a consensus segmentation is the STAPLE algorithm. In this paper, we first demonstrate that the output of that algorithm is heavily impacted by the background size of images and the choice of the prior. We then propose a new method to construct a binary or a probabilistic consensus segmentation based on the Fr\'{e}chet means of carefully chosen distances which makes it totally independent of the image background size. We provide a heuristic approach to optimize this criterion such that a voxel’s class is fully determined by its voxel-wise distance to the different masks, the connected component it belongs to and the group of raters who segmented it. We compared extensively our method on several datasets with the STAPLE method and the naive segmentation averaging method, showing that it leads to binary consensus masks of intermediate size between Majority Voting and STAPLE and to different posterior probabilities than Mask Averaging and STAPLE methods. Our code is available at https://gitlab.inria.fr/dhamzaou/jaccardmap .
arxiv情報
著者 | Dimitri Hamzaoui,Sarah Montagne,Raphaële Renard-Penna,Nicholas Ayache,Hervé Delingette |
発行日 | 2023-10-10 14:10:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google