TINC: Temporally Informed Non-Contrastive Learning for Disease Progression Modeling in Retinal OCT Volumes

要約

最近の対照的な学習方法は、低ラベルレジームで最先端を達成しました。
ただし、トレーニングでは、画像の複数のビューを作成するために、大きなバッチサイズと大幅な拡張が必要です。
非対照的な方法では、ネガは暗黙的に損失に組み込まれ、異なる画像とモダリティをペアとして使用できます。
医用画像のメタ情報(年齢、性別など)は豊富ですが、注釈はノイズが多く、クラスのバランスが崩れがちです。
この作業では、複雑さを増したり、負のペアを必要としたりすることなく、時間情報に基づく非対照損失(TINC)を使用して、縦方向光コヒーレンストモグラフィー(OCT)データセットの既存の時間情報(患者からのさまざまな訪問)を活用しました。
さらに、私たちの新しいペア形成スキームは、大幅な増強を回避し、ペアに時間情報を暗黙的に組み込むことができます。
最後に、事前トレーニングから学んだこれらの表現は、時間情報が下流のタスクにとって重要である疾患の進行を予測するのにより成功します。
より具体的には、私たちのモデルは、中等度の加齢性黄斑変性症(AMD)から後期の湿性AMD段階までの時間枠内での変換のリスクを予測する点で既存のモデルよりも優れています。

要約(オリジナル)

Recent contrastive learning methods achieved state-of-the-art in low label regimes. However, the training requires large batch sizes and heavy augmentations to create multiple views of an image. With non-contrastive methods, the negatives are implicitly incorporated in the loss, allowing different images and modalities as pairs. Although the meta-information (i.e., age, sex) in medical imaging is abundant, the annotations are noisy and prone to class imbalance. In this work, we exploited already existing temporal information (different visits from a patient) in a longitudinal optical coherence tomography (OCT) dataset using temporally informed non-contrastive loss (TINC) without increasing complexity and need for negative pairs. Moreover, our novel pair-forming scheme can avoid heavy augmentations and implicitly incorporates the temporal information in the pairs. Finally, these representations learned from the pretraining are more successful in predicting disease progression where the temporal information is crucial for the downstream task. More specifically, our model outperforms existing models in predicting the risk of conversion within a time frame from intermediate age-related macular degeneration (AMD) to the late wet-AMD stage.

arxiv情報

著者 Taha Emre,Arunava Chakravarty,Antoine Rivail,Sophie Riedl,Ursula Schmidt-Erfurth,Hrvoje Bogunović
発行日 2022-06-30 13:42:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク