Self-Supervised Learning for Medical Image Data with Anatomy-Oriented Imaging Planes

要約

自己教師あり学習は、限定されたアノテーションを持つターゲット タスクの転移学習に先立って、ラベルのないデータでディープ ネットワークを事前トレーニングするための強力なツールとして登場しました。
事前トレーニングの口実とターゲット タスクの間の関連性は、転移学習の成功にとって重要です。
医用画像データの特性 (三次元性など) を利用するために、さまざまな口実タスクが提案されています。これらのタスクは、自然画像の一般的なものよりも医用画像解析に関連しています。
しかし、これまでの研究では、標準的な心臓磁気共鳴画像などの解剖学指向の画像面のデータにはほとんど注意が払われていませんでした。
これらの画像面は画像化された器官の解剖学的構造に従って定義されているため、この情報を効果的に利用する口実タスクによりネットワークを事前トレーニングして、対象の器官に関する知識を得ることができます。
この研究では、画像面の空間的関係に基づいて、このグループの医用画像データに対して 2 つの相補的な口実タスクを提案します。
1 つ目は、結像面間の相対的な向きを学習することで、それらの交差する線を回帰することで実装されます。
2 つ目は、平行なイメージング プレーンを利用して、スタック内の相対的なスライス位置を回帰します。
どちらのプレテキスト タスクも概念的に単純で実装が簡単で、マルチタスク学習で組み合わせて表現学習を向上させることができます。
2 つの解剖学的構造 (心臓と膝) と代表的なターゲット タスク (セマンティック セグメンテーションと分類) に関する徹底した実験により、提案された口実タスクがディープ ネットワークの事前学習に効果的で、ターゲット タスクのパフォーマンスを大幅に向上させ、他の最近のアプローチよりも優れていることが実証されました。

要約(オリジナル)

Self-supervised learning has emerged as a powerful tool for pretraining deep networks on unlabeled data, prior to transfer learning of target tasks with limited annotation. The relevance between the pretraining pretext and target tasks is crucial to the success of transfer learning. Various pretext tasks have been proposed to utilize properties of medical image data (e.g., three dimensionality), which are more relevant to medical image analysis than generic ones for natural images. However, previous work rarely paid attention to data with anatomy-oriented imaging planes, e.g., standard cardiac magnetic resonance imaging views. As these imaging planes are defined according to the anatomy of the imaged organ, pretext tasks effectively exploiting this information can pretrain the networks to gain knowledge on the organ of interest. In this work, we propose two complementary pretext tasks for this group of medical image data based on the spatial relationship of the imaging planes. The first is to learn the relative orientation between the imaging planes and implemented as regressing their intersecting lines. The second exploits parallel imaging planes to regress their relative slice locations within a stack. Both pretext tasks are conceptually straightforward and easy to implement, and can be combined in multitask learning for better representation learning. Thorough experiments on two anatomical structures (heart and knee) and representative target tasks (semantic segmentation and classification) demonstrate that the proposed pretext tasks are effective in pretraining deep networks for remarkably boosted performance on the target tasks, and superior to other recent approaches.

arxiv情報

著者 Tianwei Zhang,Dong Wei,Mengmeng Zhua,Shi Gu,Yefeng Zheng
発行日 2024-03-25 07:34:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク