要約
二次元 (2D) フリーハンド超音波検査は、特に産婦人科で最も一般的に使用される医療画像モダリティの 1 つです。
ただし、本質的に 3D の解剖学的構造の 2D 断面図のみをキャプチャするため、貴重なコンテキスト情報が失われます。
高価で複雑な 3D 超音波スキャナを必要とする代わりに、機械学習を使用して 2D スキャンから 3D ボリュームを構築できます。
ただし、これには通常、長い計算時間が必要です。
ここでは、スライスからボリュームへの超音波再構成を高速化する神経表現フレームワークである RapidVol を提案します。
テンソルランク分解を使用して、典型的な 3D ボリュームをトライプレーンのセットに分解し、代わりにそれらと小さなニューラル ネットワークを保存します。
完全な 3D 再構成を形成するために必要なのは、一連の 2D 超音波スキャンとそのグラウンド トゥルース (または推定) 3D 位置および方向 (ポーズ) だけです。
再構成は実際の胎児の脳スキャンから形成され、新しい断面図を要求することで評価されます。
完全に暗黙的な表現 (神経放射フィールドなど) に基づく従来のアプローチと比較した場合、私たちの方法は 3 倍以上高速で、46% より正確で、不正確なポーズが与えられた場合でもより堅牢です。
スクラッチからではなく、構造的な事前構造から再構築することによって、さらなる高速化も可能です。
要約(オリジナル)
Two-dimensional (2D) freehand ultrasonography is one of the most commonly used medical imaging modalities, particularly in obstetrics and gynaecology. However, it only captures 2D cross-sectional views of inherently 3D anatomies, losing valuable contextual information. As an alternative to requiring costly and complex 3D ultrasound scanners, 3D volumes can be constructed from 2D scans using machine learning. However this usually requires long computational time. Here, we propose RapidVol: a neural representation framework to speed up slice-to-volume ultrasound reconstruction. We use tensor-rank decomposition, to decompose the typical 3D volume into sets of tri-planes, and store those instead, as well as a small neural network. A set of 2D ultrasound scans, with their ground truth (or estimated) 3D position and orientation (pose) is all that is required to form a complete 3D reconstruction. Reconstructions are formed from real fetal brain scans, and then evaluated by requesting novel cross-sectional views. When compared to prior approaches based on fully implicit representation (e.g. neural radiance fields), our method is over 3x quicker, 46% more accurate, and if given inaccurate poses is more robust. Further speed-up is also possible by reconstructing from a structural prior rather than from scratch.
arxiv情報
著者 | Mark C. Eid,Pak-Hei Yeung,Madeleine K. Wyburd,João F. Henriques,Ana I. L. Namburete |
発行日 | 2024-04-16 17:50:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google