Divide and Conquer Self-Supervised Learning for High-Content Imaging

要約

自己教師の表現学習方法は、しばしば微妙または複雑な機能を学習できません。これは、学習がはるかに簡単なパターンによって支配されます。
複雑な機能は発見と分析にとって重要である可能性があるため、この制限は科学と工学への応用に特に問題があります。
これに対処するために、画像をセクションに分割し、より単純な機能に妥協することなく、より微妙で複雑な機能を学習するために各セクションから情報を蒸留する新しいアーキテクチャであるSplit Component埋め込み登録(SPLICER)を紹介します。
Splicerは、任意の自己監視損失機能と互換性があり、変更なしで既存の方法に統合できます。
この作業の主な貢献は次のとおりです。i)既存の自己監視方法が、単純で複雑な機能が両方とも存在する場合にショートカットソリューションを学ぶことができることを実証します。
ii)既存の方法の制限を克服するために、新しい自己監視トレーニング方法であるSplicerを紹介し、大幅な下流のパフォーマンス改善を達成します。
iii)最先端の医療および地理空間イメージングの設定におけるスプライサーの有効性を実証します。
Splicerは、表現学習のための強力な新しいツールを提供し、モデルが他の方法で見落とされる可能性のある複雑な機能を発見できるようにします。

要約(オリジナル)

Self-supervised representation learning methods often fail to learn subtle or complex features, which can be dominated by simpler patterns which are much easier to learn. This limitation is particularly problematic in applications to science and engineering, as complex features can be critical for discovery and analysis. To address this, we introduce Split Component Embedding Registration (SpliCER), a novel architecture which splits the image into sections and distils information from each section to guide the model to learn more subtle and complex features without compromising on simpler features. SpliCER is compatible with any self-supervised loss function and can be integrated into existing methods without modification. The primary contributions of this work are as follows: i) we demonstrate that existing self-supervised methods can learn shortcut solutions when simple and complex features are both present; ii) we introduce a novel self-supervised training method, SpliCER, to overcome the limitations of existing methods, and achieve significant downstream performance improvements; iii) we demonstrate the effectiveness of SpliCER in cutting-edge medical and geospatial imaging settings. SpliCER offers a powerful new tool for representation learning, enabling models to uncover complex features which could be overlooked by other methods.

arxiv情報

著者 Lucas Farndale,Paul Henderson,Edward W Roberts,Ke Yuan
発行日 2025-03-10 15:24:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, q-bio.QM パーマリンク