要約
手動による医用画像のセグメンテーションは主観的であり、アノテーター関連のバイアスの影響を受けるため、ディープラーニング手法によって模倣または増幅される可能性があります。
最近、研究者らは、このような偏りはアノテーターの好みと確率的誤差の組み合わせであり、それぞれデコーダの後に配置された畳み込みブロックとピクセルごとの独立したガウス分布によってモデル化されると示唆しています。
畳み込みブロックが、さまざまな程度の好みをフル解像度レベルで効果的にモデル化できる可能性はほとんどありません。
さらに、独立したピクセルごとのガウス分布はピクセル相関を無視するため、不連続な境界が生じます。
この論文では、アノテーターの好みと確率的誤差をモデル化することでアノテーター関連のバイアスに取り組む、Transformer-based Annotation Bias-aware (TAB) 医用画像セグメンテーション モデルを提案します。
TAB は、学習可能なクエリを備えた Transformer を使用して、好みに重点を置いたさまざまな機能を抽出します。
これにより、TAB は単一のセグメンテーション ヘッドを使用して、さまざまな設定を備えたセグメンテーションを同時に生成できるようになります。
さらに、TAB はピクセル相関をモデル化する多変量正規分布の仮定を採用し、確率的誤差を解くためにアノテーションの分布を学習します。
私たちは、6 人のアノテーターによって注釈が付けられた OD/OC セグメンテーション ベンチマークで TAB を評価しました。
私たちの結果は、TAB がアノテーター関連のバイアスを考慮した既存の医療画像セグメンテーション モデルよりも優れていることを示唆しています。
要約(オリジナル)
Manual medical image segmentation is subjective and suffers from annotator-related bias, which can be mimicked or amplified by deep learning methods. Recently, researchers have suggested that such bias is the combination of the annotator preference and stochastic error, which are modeled by convolution blocks located after decoder and pixel-wise independent Gaussian distribution, respectively. It is unlikely that convolution blocks can effectively model the varying degrees of preference at the full resolution level. Additionally, the independent pixel-wise Gaussian distribution disregards pixel correlations, leading to a discontinuous boundary. This paper proposes a Transformer-based Annotation Bias-aware (TAB) medical image segmentation model, which tackles the annotator-related bias via modeling annotator preference and stochastic errors. TAB employs the Transformer with learnable queries to extract the different preference-focused features. This enables TAB to produce segmentation with various preferences simultaneously using a single segmentation head. Moreover, TAB takes the multivariant normal distribution assumption that models pixel correlations, and learns the annotation distribution to disentangle the stochastic error. We evaluated our TAB on an OD/OC segmentation benchmark annotated by six annotators. Our results suggest that TAB outperforms existing medical image segmentation models which take into account the annotator-related bias.
arxiv情報
著者 | Zehui Liao,Yutong Xie,Shishuai Hu,Yong Xia |
発行日 | 2023-06-28 16:08:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google