要約
医用画像解析では、高品質のデータと専門家による注釈を取得するためのコストが、多くの医療アプリケーションの障壁となっています。
使用される手法のほとんどは教師あり学習フレームワークに基づいており、満足のいくパフォーマンスを達成するには大量の注釈付きデータが必要です。
別の方法として、この論文では、膝の病状の診断のために、磁気共鳴 (MR) ビデオ クリップのフレームから空間解剖学的表現を学習するための自己教師あり学習 (SSL) アプローチを提案します。
口実モデルは、意味のある空間コンテキスト不変表現を学習します。
私たちの論文の下流のタスクは、クラスの不均衡なマルチラベル分類です。
さまざまな実験により、口実モデルによって学習された機能が下流のタスクで競争力のあるパフォーマンスを提供することが示されています。
さらに、データセットの不均衡に対する戦略を適用せずに少数派クラスの表現を学習する際の提案された口実モデルの効率と信頼性は、結果から見ることができます。
私たちの知る限り、この作業は、MR ビデオのクラスの不均衡なマルチラベル分類タスクにおける自己教師あり学習アルゴリズムの有効性と信頼性を示す最初の作業です。
提案された作業を評価するためのコードは、https://github.com/sadimanna/skid で入手できます。
要約(オリジナル)
In medical image analysis, the cost of acquiring high-quality data and their annotation by experts is a barrier in many medical applications. Most of the techniques used are based on supervised learning framework and need a large amount of annotated data to achieve satisfactory performance. As an alternative, in this paper, we propose a self-supervised learning (SSL) approach to learn the spatial anatomical representations from the frames of magnetic resonance (MR) video clips for the diagnosis of knee medical conditions. The pretext model learns meaningful spatial context-invariant representations. The downstream task in our paper is a class imbalanced multi-label classification. Different experiments show that the features learnt by the pretext model provide competitive performance in the downstream task. Moreover, the efficiency and reliability of the proposed pretext model in learning representations of minority classes without applying any strategy towards imbalance in the dataset can be seen from the results. To the best of our knowledge, this work is the first work of its kind in showing the effectiveness and reliability of self-supervised learning algorithms in class imbalanced multi-label classification tasks on MR videos. The code for evaluation of the proposed work is available at https://github.com/sadimanna/skid.
arxiv情報
著者 | Siladittya Manna,Saumik Bhattacharya,Umapada Pal |
発行日 | 2022-10-19 12:20:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google