Segmenting Fetal Head with Efficient Fine-tuning Strategies in Low-resource Settings: an empirical study with U-Net

要約

胎児の頭囲を正確に測定することは、定期的な出生前スクリーニングで胎児の成長を推定するために非常に重要です。
測定前に、超音波画像内の関心領域、特に児頭を正確に特定してセグメント化する必要があります。
深層学習技術の最近の進歩により、エンコーダー/デコーダー モデルを使用した児頭のセグメント化において大きな進歩が見られました。
これらのモデルの中で、U-Net は正確なセグメンテーションのための標準的なアプローチとなっています。
ただし、エンコーダー/デコーダー モデルのトレーニングは、かなりの計算リソースを必要とする、時間のかかるプロセスになる可能性があります。
さらに、利用可能なデータの量が限られている場合、これらのモデルを微調整することは特に困難です。
胎児超音波画像セグメンテーションのための U-net の最適な微調整に関する「ベストプラクティス」ガイドラインはまだありません。
この研究では、さまざまなバックボーン アーキテクチャ、モデル コンポーネントを使用した既存の微調整戦略、およびオランダ、スペイン、マラウイ、エジプト、アルジェリアの超音波データにわたる微調整戦略を要約しています。
私たちの調査では、(1) U-Net を微調整すると、最初からトレーニングするよりもパフォーマンスが向上する、(2) デコーダの微調整戦略が他の戦略よりも優れている、(3) より少ないパラメータ数でもネットワーク アーキテクチャが同様のパフォーマンスを達成できることが示されています。
またはより良いパフォーマンス。
また、低リソース設定における微調整戦略の有効性を実証し、実験を少数ショット学習にさらに拡張します。
最後に、コードと微調整された特定の重みを公開しました。

要約(オリジナル)

Accurate measurement of fetal head circumference is crucial for estimating fetal growth during routine prenatal screening. Prior to measurement, it is necessary to accurately identify and segment the region of interest, specifically the fetal head, in ultrasound images. Recent advancements in deep learning techniques have shown significant progress in segmenting the fetal head using encoder-decoder models. Among these models, U-Net has become a standard approach for accurate segmentation. However, training an encoder-decoder model can be a time-consuming process that demands substantial computational resources. Moreover, fine-tuning these models is particularly challenging when there is a limited amount of data available. There are still no ‘best-practice’ guidelines for optimal fine-tuning of U-net for fetal ultrasound image segmentation. This work summarizes existing fine-tuning strategies with various backbone architectures, model components, and fine-tuning strategies across ultrasound data from Netherlands, Spain, Malawi, Egypt and Algeria. Our study shows that (1) fine-tuning U-Net leads to better performance than training from scratch, (2) fine-tuning strategies in decoder are superior to other strategies, (3) network architecture with less number of parameters can achieve similar or better performance. We also demonstrate the effectiveness of fine-tuning strategies in low-resource settings and further expand our experiments into few-shot learning. Lastly, we publicly released our code and specific fine-tuned weights.

arxiv情報

著者 Fangyijie Wang,Guénolé Silvestre,Kathleen M. Curran
発行日 2024-07-29 15:16:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク