Tyche: Stochastic In-Context Learning for Medical Image Segmentation

要約

医療画像セグメンテーションに対する既存の学習ベースのソリューションには、2 つの重要な欠点があります。
まず、ほとんどの新しいセグメンテーション タスクでは、新しいモデルをトレーニングまたは微調整する必要があります。
これには広範なリソースと機械学習の専門知識が必要であるため、医療研究者や臨床医には実行不可能なことがよくあります。
第 2 に、既存のセグメンテーション手法のほとんどは、特定の画像に対して単一の決定論的なセグメンテーション マスクを生成します。
ただし、実際には、何が正しいセグメンテーションを構成するかについてかなりの不確実性があることが多く、異なる専門アノテーターが同じ画像を異なる方法でセグメント化することもよくあります。
私たちは、これらの問題の両方に Tyche を使用して取り組みます。Tyche は、コンテキスト セットを使用して、再トレーニングを必要とせずに、これまでに見たことのないタスクの確率的予測を生成するモデルです。
Tyche は、2 つの重要な点で他のインコンテキスト セグメンテーション手法と異なります。
(1) 予測間の相互作用を可能にする新しい畳み込みブロック アーキテクチャを導入します。
(2) 予測確率性を提供する新しいメカニズムであるインコンテキスト テスト時間拡張を導入します。
適切なモデル設計および損失関数と組み合わせると、Tyche は、再トレーニングすることなく、新規または未確認の医療画像およびセグメンテーション タスクに対する、もっともらしい多様なセグメンテーション候補のセットを予測できます。

要約(オリジナル)

Existing learning-based solutions to medical image segmentation have two important shortcomings. First, for most new segmentation task, a new model has to be trained or fine-tuned. This requires extensive resources and machine learning expertise, and is therefore often infeasible for medical researchers and clinicians. Second, most existing segmentation methods produce a single deterministic segmentation mask for a given image. In practice however, there is often considerable uncertainty about what constitutes the correct segmentation, and different expert annotators will often segment the same image differently. We tackle both of these problems with Tyche, a model that uses a context set to generate stochastic predictions for previously unseen tasks without the need to retrain. Tyche differs from other in-context segmentation methods in two important ways. (1) We introduce a novel convolution block architecture that enables interactions among predictions. (2) We introduce in-context test-time augmentation, a new mechanism to provide prediction stochasticity. When combined with appropriate model design and loss functions, Tyche can predict a set of plausible diverse segmentation candidates for new or unseen medical images and segmentation tasks without the need to retrain.

arxiv情報

著者 Marianne Rakic,Hallee E. Wong,Jose Javier Gonzalez Ortiz,Beth Cimini,John Guttag,Adrian V. Dalca
発行日 2024-01-24 18:35:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク