要約
ディープラーニングとコンピュータービジョンの最近の進歩により、多くのボトルネックが緩和され、アルゴリズムをラベルなしでパフォーマンスを向上させることができます。
具体的には、トランスフォーマーは、畳み込みニューラルネットワーク(CNN)が設計上欠けている画像のグローバルな視点を提供します。
ここでは、トランスとCNNを同時に活用すると同時に、一般開業医が簡単に利用できるクラウドサービスを介して計算でアクセスできる、新しい自己監視学習アプローチであるCrossArchitecturalSelf-Supervisionを紹介します。
既存の最先端の自己監視学習アプローチと比較して、CASSでトレーニングされたCNNを経験的に示し、Transformersは100%のラベル付きデータで平均8.5%、10%のラベル付きデータで7.3%、1で11.5%を獲得しました
3つの異なるデータセットにわたる%ラベル付きデータ。
特に、採用されたデータセットの1つには、自己免疫疾患の組織病理学的スライドが含まれていました。これは、医用画像で過小評価されているトピックであり、データは最小限です。
さらに、私たちの調査結果は、CASSがトレーニング時間の点で他の最先端の方法の2倍効率的であることを明らかにしています。
コードはオープンソースであり、GitHubで入手できます。
要約(オリジナル)
Recent advances in Deep Learning and Computer Vision have alleviated many of the bottlenecks, allowing algorithms to be label-free with better performance. Specifically, Transformers provide a global perspective of the image, which Convolutional Neural Networks (CNN) lack by design. Here we present Cross Architectural Self-Supervision, a novel self-supervised learning approach which leverages transformers and CNN simultaneously, while also being computationally accessible to general practitioners via easily available cloud services. Compared to existing state-of-the-art self-supervised learning approaches, we empirically show CASS trained CNNs, and Transformers gained an average of 8.5% with 100% labelled data, 7.3% with 10% labelled data, and 11.5% with 1% labelled data, across three diverse datasets. Notably, one of the employed datasets included histopathology slides of an autoimmune disease, a topic underrepresented in Medical Imaging and has minimal data. In addition, our findings reveal that CASS is twice as efficient as other state-of-the-art methods in terms of training time. The code is open source and is available on GitHub.
arxiv情報
著者 | Pranav Singh,Elena Sizikova,Jacopo Cirrone |
発行日 | 2022-06-23 11:14:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google