The Efficacy of Semantics-Preserving Transformations in Self-Supervised Learning for Medical Ultrasound

要約

データ増強は、共同埋め込み自己監視学習(SSL)の中心的な要素です。
自然な画像に機能するアプローチは、医療画像タスクで常に効果的ではない場合があります。
この研究では、肺超音波のSSLにおけるデータ増強および前処理戦略の影響を体系的に調査しました。
3つのデータ増強パイプラインが評価されました。(1)イメージングドメイン間で一般的に使用されるベースラインパイプライン、(2)超音波用に設計された新しいセマンティックプレゼンティングパイプライン、および(3)両方のパイプラインからの最も効果的な変換の蒸留セット。
事前に保護されたモデルは、B-Line検出、胸水検出、およびCOVID-19分類の複数の分類タスクで評価されました。
実験により、セマンティクスを提供するデータ増強により、Covid-19分類のパフォーマンスが最も大きいことが明らかになりました。これは、グローバルな画像コンテキストを必要とする診断タスクです。
作物ベースの方法は、Bラインおよび胸水オブジェクト分類タスクで最大のパフォーマンスをもたらしました。
最後に、セマンティクスを摂取する超音波画像前処理により、複数のタスクの下流パフォーマンスが向上しました。
データ増強戦略と前処理戦略に関するガイダンスは、超音波でSSLを扱う実務家向けに合成されました。

要約(オリジナル)

Data augmentation is a central component of joint embedding self-supervised learning (SSL). Approaches that work for natural images may not always be effective in medical imaging tasks. This study systematically investigated the impact of data augmentation and preprocessing strategies in SSL for lung ultrasound. Three data augmentation pipelines were assessed: (1) a baseline pipeline commonly used across imaging domains, (2) a novel semantic-preserving pipeline designed for ultrasound, and (3) a distilled set of the most effective transformations from both pipelines. Pretrained models were evaluated on multiple classification tasks: B-line detection, pleural effusion detection, and COVID-19 classification. Experiments revealed that semantics-preserving data augmentation resulted in the greatest performance for COVID-19 classification – a diagnostic task requiring global image context. Cropping-based methods yielded the greatest performance on the B-line and pleural effusion object classification tasks, which require strong local pattern recognition. Lastly, semantics-preserving ultrasound image preprocessing resulted in increased downstream performance for multiple tasks. Guidance regarding data augmentation and preprocessing strategies was synthesized for practitioners working with SSL in ultrasound.

arxiv情報

著者 Blake VanBerlo,Alexander Wong,Jesse Hoey,Robert Arntfield
発行日 2025-04-10 16:26:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV, I.2.10 パーマリンク