EchoTracker: Advancing Myocardial Point Tracking in Echocardiography

要約

心エコー検査における組織追跡は、複雑な心臓の動きと超音波取得の固有の性質により困難です。
オプティカル フロー手法は最先端 (SOTA) であると考えられていますが、長距離トラッキング、ノイズ オクルージョン、心周期全体にわたるドリフトに悩まされています。
最近、これらの問題のいくつかに取り組むために、新しい学習ベースのポイント追跡技術が導入されました。
この論文では、これらの技術に基づいて、超音波画像シーケンス全体にわたる組織表面上の照会された点の追跡を容易にする 2 重粗密モデルである EchoTracker を紹介します。
このアーキテクチャには、軌道の予備的な粗い初期化が含まれており、その後、きめの細かい外観の変更に基づいて強化の反復が行われます。
効率的で軽量で、ミッドレンジの GPU で実行できます。
実験の結果、このモデルは平均位置精度 67%、軌道誤差中央値 2.86 ピクセルで SOTA 手法より優れていることが実証されました。
さらに、臨床検査-再検査データセットの全縦ひずみ (GLS) を計算するためにこのモデルを使用すると、他の方法と比較して 25% の相対的な改善が見られます。
これは、学習ベースのポイント追跡によりパフォーマンスが向上し、現在の技術よりも高い臨床測定の診断値と予後値が得られる可能性があることを意味します。
ソース コードは https://github.com/riponazad/echotracker/ から入手できます。

要約(オリジナル)

Tissue tracking in echocardiography is challenging due to the complex cardiac motion and the inherent nature of ultrasound acquisitions. Although optical flow methods are considered state-of-the-art (SOTA), they struggle with long-range tracking, noise occlusions, and drift throughout the cardiac cycle. Recently, novel learning-based point tracking techniques have been introduced to tackle some of these issues. In this paper, we build upon these techniques and introduce EchoTracker, a two-fold coarse-to-fine model that facilitates the tracking of queried points on a tissue surface across ultrasound image sequences. The architecture contains a preliminary coarse initialization of the trajectories, followed by reinforcement iterations based on fine-grained appearance changes. It is efficient, light, and can run on mid-range GPUs. Experiments demonstrate that the model outperforms SOTA methods, with an average position accuracy of 67% and a median trajectory error of 2.86 pixels. Furthermore, we show a relative improvement of 25% when using our model to calculate the global longitudinal strain (GLS) in a clinical test-retest dataset compared to other methods. This implies that learning-based point tracking can potentially improve performance and yield a higher diagnostic and prognostic value for clinical measurements than current techniques. Our source code is available at: https://github.com/riponazad/echotracker/.

arxiv情報

著者 Md Abulkalam Azad,Artem Chernyshov,John Nyberg,Ingrid Tveten,Lasse Lovstakken,Håvard Dalen,Bjørnar Grenne,Andreas Østvik
発行日 2024-05-14 13:24:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク