要約
この論文では、U-RAFT と呼ばれる、オンライン レートでの超音波画像の変形可能な位置合わせのための深層学習モデルを紹介します。
その名前が示すように、U-RAFT はオプティカル フローを推定するための畳み込みニューラル ネットワークである RAFT に基づいています。
ただし、U-RAFT は教師なしでトレーニングでき、血管セグメンテーション モデルをトレーニングするための合成画像を生成できます。
U-RAFT をトレーニングするためのさまざまな損失関数の登録品質を提案し、比較します。
また、私たちのアプローチと力制御スキャンを実行するロボットを併用して、追加の手動ラベル付けを必要とせずに、合成変形画像を生成して大腿血管セグメンテーショントレーニングデータセットのサイズを大幅に拡大する方法も示します。
私たちは、シリコン人体組織ファントムと生体内ブタ画像の両方でアプローチを検証します。
U-RAFT が、ファントムとブタのデータセットの実際の超音波画像に対して、それぞれ 98% と 81% の構造類似性指標 (SSIM) を持つ合成超音波画像を生成することを示します。
また、U-RAFT からの合成変形画像を血管セグメンテーション モデルのデータ拡張技術として使用して、Intersection-over-union (IoU) セグメンテーションのパフォーマンスを向上できることも実証します。
要約(オリジナル)
This paper presents a deep-learning model for deformable registration of ultrasound images at online rates, which we call U-RAFT. As its name suggests, U-RAFT is based on RAFT, a convolutional neural network for estimating optical flow. U-RAFT, however, can be trained in an unsupervised manner and can generate synthetic images for training vessel segmentation models. We propose and compare the registration quality of different loss functions for training U-RAFT. We also show how our approach, together with a robot performing force-controlled scans, can be used to generate synthetic deformed images to significantly expand the size of a femoral vessel segmentation training dataset without the need for additional manual labeling. We validate our approach on both a silicone human tissue phantom as well as on in-vivo porcine images. We show that U-RAFT generates synthetic ultrasound images with 98% and 81% structural similarity index measure (SSIM) to the real ultrasound images for the phantom and porcine datasets, respectively. We also demonstrate that synthetic deformed images from U-RAFT can be used as a data augmentation technique for vessel segmentation models to improve intersection-over-union (IoU) segmentation performance
arxiv情報
著者 | FNU Abhimanyu,Andrew L. Orekhov,Ananya Bal,John Galeotti,Howie Choset |
発行日 | 2023-06-23 07:10:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google