More From Less: Self-Supervised Knowledge Distillation for Routine Histopathology Data

要約

医用画像技術は、高品質で情報密度の高いデータをますます大量に生成しています。
進歩にもかかわらず、研究や診断のための高度な画像技術の実用化は依然としてコストと入手可能性によって制限されているため、実際には H&E 染色などの情報が希薄なデータに依存しています。
病変組織の研究には、これらの情報密度の高いデータを活用して、日常的な情報の少ないデータからより多くの価値を抽出できる方法が必要です。
自己教師あり深層学習を使用して、トレーニング中に情報密度の高いデータから推論に情報密度の低いデータのみを必要とするモデルに知識を抽出できることを実証します。
これにより、情報がまばらなデータの下流の分類精度が向上し、完全に監視されたベースラインと同等になります。
学習された表現に大きな効果があることがわかり、このトレーニング プロセスにより、他の方法では検出されない微妙な特徴が特定されます。
このアプローチにより、日常的な画像のみを必要とするモデルの設計が可能になり、最先端のデータからの洞察が含まれ、利用可能なリソースをより有効に活用できるようになります。

要約(オリジナル)

Medical imaging technologies are generating increasingly large amounts of high-quality, information-dense data. Despite the progress, practical use of advanced imaging technologies for research and diagnosis remains limited by cost and availability, so information-sparse data such as H&E stains are relied on in practice. The study of diseased tissue requires methods which can leverage these information-dense data to extract more value from routine, information-sparse data. Using self-supervised deep learning, we demonstrate that it is possible to distil knowledge during training from information-dense data into models which only require information-sparse data for inference. This improves downstream classification accuracy on information-sparse data, making it comparable with the fully-supervised baseline. We find substantial effects on the learned representations, and this training process identifies subtle features which otherwise go undetected. This approach enables the design of models which require only routine images, but contain insights from state-of-the-art data, allowing better use of the available resources.

arxiv情報

著者 Lucas Farndale,Robert Insall,Ke Yuan
発行日 2023-07-21 17:15:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク