要約
ディープ ラーニングとコンピューター ビジョンの最近の進歩により、自動化された医療画像分析に対する多くの障壁が軽減され、アルゴリズムがラベルのない画像を処理してパフォーマンスを向上させることが可能になりました。
具体的には、トランスフォーマーは、畳み込みニューラル ネットワーク (CNN) に本質的に欠けている画像のグローバルな視点を提供します。
ここでは、Transformer と CNN を同時に活用する新しい自己教師あり学習アプローチである Cross Architecture – Self Supervision を紹介します。
既存の最先端の自己教師あり学習アプローチと比較して、CASS が CNN を訓練し、3 つの多様なデータセットにわたる Transformer が 100% のラベル付きデータで平均 8.5%、10% のラベル付きデータで 7.3%、11.5% の平均値を獲得したことを経験的に示しました。
% 1% のラベル付きデータ。
特に、自己免疫疾患の病理組織スライドで構成されたテスト データセットの 1 つは、医療画像処理で過小評価されてきた最小限のデータしかない状態です。
さらに、私たちの調査結果は、CASS が既存の最先端の自己教師あり方法よりも堅牢であることも明らかにしました。
コードはオープン ソースであり、GitHub で入手できます。
要約(オリジナル)
Recent advances in deep learning and computer vision have reduced many barriers to automated medical image analysis, allowing algorithms to process label-free images and improve performance. Specifically, Transformers provide a global perspective of the image, that Convolutional Neural Networks (CNNs) inherently lack. Here we present Cross Architectural – Self Supervision, a novel self-supervised learning approach that leverages Transformer and CNN simultaneously. Compared to the existing state of the art self-supervised learning approaches, we empirically showed that CASS trained CNNs, and Transformers across three diverse datasets gained an average of 8.5% with 100% labelled data, 7.3% with 10% labelled data, and 11.5% with 1% labelled data. Notably, one of the test datasets comprised of histopathology slides of an autoimmune disease, a condition with minimal data that has been underrepresented in medical imaging. In addition, our findings revealed that CASS is also more robust than the existing state of the art self-supervised methods. The code is open source and is available on GitHub.
arxiv情報
著者 | Pranav Singh,Elena Sizikova,Jacopo Cirrone |
発行日 | 2022-08-02 15:08:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google