Decoding natural image stimuli from fMRI data with a surface-based convolutional network

要約

機能的MRIデータの低い信号対雑音比と限られた解像度、そして自然画像の高い複雑性のため、ヒトの脳fMRI測定値から視覚刺激を再構成することは困難な課題である。本研究では、この課題に対して、高い意味的忠実度と豊かなきめ細かさを持つ視覚刺激をデコードする、Cortex2Imageと呼ぶ新しいアプローチを提案する。具体的には、まず、脳の反応から意味的な画像特徴にマッピングする表面ベースの畳み込みネットワークモデルを学習する(Cortex2Semantic)。次に、このモデルを高品質画像生成器(Instance-Conditioned GAN)と組み合わせ、変分法を用いて脳反応から細かい画像特徴への別のマッピングを学習する(Cortex2Detail)。提案手法により得られた画像再構成は、最新の意味的忠実度を達成すると同時に、基底刺激との良好な細粒度の類似性を得ることができる。我々のコードは、https://github.com/zijin-gu/meshconv-decoding.git で公開されています。

要約(オリジナル)

Due to the low signal-to-noise ratio and limited resolution of functional MRI data, and the high complexity of natural images, reconstructing a visual stimulus from human brain fMRI measurements is a challenging task. In this work, we propose a novel approach for this task, which we call Cortex2Image, to decode visual stimuli with high semantic fidelity and rich fine-grained detail. In particular, we train a surface-based convolutional network model that maps from brain response to semantic image features first (Cortex2Semantic). We then combine this model with a high-quality image generator (Instance-Conditioned GAN) to train another mapping from brain response to fine-grained image features using a variational approach (Cortex2Detail). Image reconstructions obtained by our proposed method achieve state-of-the-art semantic fidelity, while yielding good fine-grained similarity with the ground-truth stimulus. Our code is available at: https://github.com/zijin-gu/meshconv-decoding.git.

arxiv情報

著者 Zijin Gu,Keith Jamison,Amy Kuceyeski,Mert Sabuncu
発行日 2022-12-05 16:47:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, q-bio.QM パーマリンク