要約
一般化は、機械学習モデルの重要な属性です。特に、信頼できない予測が現実世界に影響を与える可能性がある医療コンテキストで展開されるモデルにとっては重要です。
モデルがデータセット間で一般化できないのは、通常、データ分布の不一致に起因しますが、パフォーマンスのギャップは、多くの場合、「グラウンド トゥルース」ラベル アノテーションのバイアスの結果です。
これは、アノテーション プロセスがはるかに主観的であり、アノテーション プロトコル、評価者の教育/経験、および臨床目的を含むいくつかの根本的な要因の影響を受ける、病理学的構造 (病変など) の医用画像セグメンテーションのコンテキストで特に重要です。
とりわけ。
このホワイト ペーパーでは、アノテーション バイアスを無視するのではなくモデル化することが、データセット間のアノテーション スタイルの違いを説明する有望な方法であることを示します。
この目的のために、(1) 単一のモデルを使用して複数のデータセットにまたがるさまざまな注釈スタイルを学習して説明し、(2) 効果的な集約を可能にするために、さまざまなデータセットにまたがる同様の注釈スタイルを識別し、(3)
)完全にトレーニングされたモデルを、ほんの数サンプルで新しい注釈スタイルに微調整します。
次に、特定の画像の特徴と相関する注釈スタイルをモデル化するための画像調整アプローチを提示し、検出バイアスをより簡単に識別できるようにする可能性があります。
要約(オリジナル)
Generalization is an important attribute of machine learning models, particularly for those that are to be deployed in a medical context, where unreliable predictions can have real world consequences. While the failure of models to generalize across datasets is typically attributed to a mismatch in the data distributions, performance gaps are often a consequence of biases in the “ground-truth’ label annotations. This is particularly important in the context of medical image segmentation of pathological structures (e.g. lesions), where the annotation process is much more subjective, and affected by a number underlying factors, including the annotation protocol, rater education/experience, and clinical aims, among others. In this paper, we show that modeling annotation biases, rather than ignoring them, poses a promising way of accounting for differences in annotation style across datasets. To this end, we propose a generalized conditioning framework to (1) learn and account for different annotation styles across multiple datasets using a single model, (2) identify similar annotation styles across different datasets in order to permit their effective aggregation, and (3) fine-tune a fully trained model to a new annotation style with just a few samples. Next, we present an image-conditioning approach to model annotation styles that correlate with specific image features, potentially enabling detection biases to be more easily identified.
arxiv情報
著者 | Brennan Nichyporuk,Jillian Cardinell,Justin Szeto,Raghav Mehta,Jean-Pierre R. Falet,Douglas L. Arnold,Sotirios A. Tsaftaris,Tal Arbel |
発行日 | 2022-10-31 15:28:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google