Self-Supervised Learning of Phenotypic Representations from Cell Images with Weak Labels

要約

WS-DINO を、細胞のハイコンテント蛍光画像から表現型表現を学習する際に弱いラベル情報を使用するための新しいフレームワークとして提案します。
私たちのモデルは、ビジョン トランスフォーマー バックボーン (DINO) を使用した知識蒸留アプローチに基づいており、これを研究のベンチマーク モデルとして使用しています。
WS-DINO を使用して、ハイコンテント顕微鏡スクリーン (処理および化合物) で利用可能な弱いラベル情報で微調整し、BBBC021 データセットでの作用予測の同じ化合物ではないメカニズムで最先端のパフォーマンスを達成しました (
98%)、および弱標識として化合物を使用した、同一の化合物とバッチのパフォーマンス (96%) ではありません。
私たちの方法は、前処理ステップとして単一細胞のトリミングをバイパスし、自己注意マップを使用して、モデルが構造的に意味のある表現型プロファイルを学習することを示します。

要約(オリジナル)

We propose WS-DINO as a novel framework to use weak label information in learning phenotypic representations from high-content fluorescent images of cells. Our model is based on a knowledge distillation approach with a vision transformer backbone (DINO), and we use this as a benchmark model for our study. Using WS-DINO, we fine-tuned with weak label information available in high-content microscopy screens (treatment and compound) and achieve state-of-the-art performance in not-same-compound mechanism of action prediction on the BBBC021 dataset (98%), and not-same-compound-and-batch performance (96%) using the compound as the weak label. Our method bypasses single cell cropping as a pre-processing step, and using self-attention maps we show that the model learns structurally meaningful phenotypic profiles.

arxiv情報

著者 Jan Oscar Cross-Zamirski,Guy Williams,Elizabeth Mouchet,Carola-Bibiane Schönlieb,Riku Turkki,Yinhai Wang
発行日 2022-11-17 13:26:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク