Rethinking Generalization: The Impact of Annotation Style on Medical Image Segmentation

要約

一般化は機械学習モデルの重要な特性であり、特に信頼性の低い予測が実世界に影響を及ぼす可能性のある医療分野で使用されるモデルにとっては重要である。一般的に、モデルがデータセット間で汎化できないのは、データ分布の不一致に起因するが、性能のギャップは、しばしば、「真実の」ラベル注釈のバイアスの結果である。このことは、病理学的構造(例えば病変)の医用画像セグメンテーションの文脈では特に重要であり、アノテーションプロセスはより主観的で、アノテーションプロトコル、評価者の教育/経験、臨床目的など、多くの基礎因子に影響される。本論文では、アノテーションバイアスを無視するのではなく、モデル化することで、データセット間のアノテーションスタイルの違いを説明する有望な方法であることを示している。この目的のために、我々は、(1)単一のモデルを用いて複数のデータセット間で異なるアノテーションスタイルを学習し、考慮する、(2)異なるデータセット間で類似したアノテーションスタイルを識別し、効果的に集約できる、(3)完全に学習したモデルをわずか数サンプルで新しいアノテーションスタイルに微調整できる一般化条件付けフレームワークを提案する。次に、特定の画像特徴と相関するアノテーションスタイルをモデル化する画像条件付けアプローチを紹介し、検出バイアスをより容易に特定できる可能性を示す。

要約(オリジナル)

Generalization is an important attribute of machine learning models, particularly for those that are to be deployed in a medical context, where unreliable predictions can have real world consequences. While the failure of models to generalize across datasets is typically attributed to a mismatch in the data distributions, performance gaps are often a consequence of biases in the ‘ground-truth’ label annotations. This is particularly important in the context of medical image segmentation of pathological structures (e.g. lesions), where the annotation process is much more subjective, and affected by a number underlying factors, including the annotation protocol, rater education/experience, and clinical aims, among others. In this paper, we show that modeling annotation biases, rather than ignoring them, poses a promising way of accounting for differences in annotation style across datasets. To this end, we propose a generalized conditioning framework to (1) learn and account for different annotation styles across multiple datasets using a single model, (2) identify similar annotation styles across different datasets in order to permit their effective aggregation, and (3) fine-tune a fully trained model to a new annotation style with just a few samples. Next, we present an image-conditioning approach to model annotation styles that correlate with specific image features, potentially enabling detection biases to be more easily identified.

arxiv情報

著者 Brennan Nichyporuk,Jillian Cardinell,Justin Szeto,Raghav Mehta,Jean-Pierre R. Falet,Douglas L. Arnold,Sotirios A. Tsaftaris,Tal Arbel
発行日 2022-12-05 14:31:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク