JUMP: A joint multimodal registration pipeline for neuroimaging with minimal preprocessing

要約

最小限の前処理で神経画像モダリティの偏りのない堅牢なマルチモーダル登録のためのパイプラインを紹介します。
一般的なマルチモーダル研究では、多様なオプションとハイパーパラメータを備えた複数の独立した処理パイプラインを使用する必要がありますが、私たちは、さまざまな画像モダリティを共同処理するための単一の構造化されたフレームワークを提案します。
最先端の学習ベースの技術を使用することで高速な推論が可能になり、提示された方法がセッションごとに多様な数のモダリティを持つ大規模データセットやマルチコホート データセットに適したものになります。
このパイプラインは現在、構造 MRI、静止状態 fMRI、アミロイド PET 画像で動作しています。
我々は、症例対照研究で使用する派生バイオマーカーの予測力を示し、異なる画像モダリティ間のクロスモーダル関係を研究します。
コードは https://github.com/acasamitjana/JUMP にあります。

要約(オリジナル)

We present a pipeline for unbiased and robust multimodal registration of neuroimaging modalities with minimal pre-processing. While typical multimodal studies need to use multiple independent processing pipelines, with diverse options and hyperparameters, we propose a single and structured framework to jointly process different image modalities. The use of state-of-the-art learning-based techniques enables fast inferences, which makes the presented method suitable for large-scale and/or multi-cohort datasets with a diverse number of modalities per session. The pipeline currently works with structural MRI, resting state fMRI and amyloid PET images. We show the predictive power of the derived biomarkers using in a case-control study and study the cross-modal relationship between different image modalities. The code can be found in https: //github.com/acasamitjana/JUMP.

arxiv情報

著者 Adria Casamitjana,Juan Eugenio Iglesias,Raul Tudela,Aida Ninerola-Baizan,Roser Sala-Llonch
発行日 2024-01-25 15:40:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク