TriDeNT: Triple Deep Network Training for Privileged Knowledge Distillation in Histopathology

要約

計算病理学モデルでは、推論に利用できないデータを利用することはほとんどない。つまり、ほとんどのモデルは、追加の免疫組織化学(IHC)染色や空間トランスクリプトミクスのような情報量の多いデータから学習することができない。我々はTriDeNTを発表する。TriDeNTは、パフォーマンスを向上させるために、推論中に利用できない特権的なデータを利用するための新しい自己教師付き手法である。免疫組織化学、空間トランスクリプトミクス、エキスパート核アノテーションを含む様々なペアデータに対して、この方法の有効性を実証する。すべての設定において、TriDeNTはダウンストリームタスクにおいて他の最先端の手法を上回り、最大101%の改善が観察された。さらに、これらのモデルによって学習された特徴の定性的および定量的な測定値を提供し、それらがベースラインとどのように異なるかを示します。TriDeNTは、少ないデータやコストのかかるデータから知識を抽出する新しい手法を提供し、日常的な入力に対して大幅に優れたモデルを作成します。

要約(オリジナル)

Computational pathology models rarely utilise data that will not be available for inference. This means most models cannot learn from highly informative data such as additional immunohistochemical (IHC) stains and spatial transcriptomics. We present TriDeNT, a novel self-supervised method for utilising privileged data that is not available during inference to improve performance. We demonstrate the efficacy of this method for a range of different paired data including immunohistochemistry, spatial transcriptomics and expert nuclei annotations. In all settings, TriDeNT outperforms other state-of-the-art methods in downstream tasks, with observed improvements of up to 101%. Furthermore, we provide qualitative and quantitative measurements of the features learned by these models and how they differ from baselines. TriDeNT offers a novel method to distil knowledge from scarce or costly data during training, to create significantly better models for routine inputs.

arxiv情報

著者 Lucas Farndale,Robert Insall,Ke Yuan
発行日 2023-12-04 18:43:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG, q-bio.TO パーマリンク