要約
脳年齢は、認知能力と脳疾患に関連する表現型であることが証明されています。
正確な脳年齢予測を達成することは、予測された脳年齢差をバイオマーカーとして最適化するための不可欠な前提条件です。
包括的な生物学的特性として、脳年齢は、特徴量エンジニアリングと、ローカル畳み込みや一度に 1 つのローカル近傍を処理する再帰演算などのローカル処理を使用するモデルでは正確に活用することが困難です。
代わりに、ビジョン トランスフォーマーは、パッチ トークンのグローバルな注意深い相互作用を学習し、誘導バイアスを減らし、長期的な依存関係をモデル化します。
これに関して、グローバルおよびローカルの依存関係を使用して解釈する脳年齢を学習するための新しいネットワークを提案しました。対応する表現は、Successive Permuted Transformer (SPT) と畳み込みブロックによってキャプチャされます。
SPT は、計算効率を高め、さまざまなビューからの 2D スライスを継続的にエンコードすることにより、間接的に 3D 空間情報を見つけます。
最後に、年齢が 14 歳から 97 歳までの 22645 人の大規模なコホートを収集し、ネットワークは一連の深層学習手法の中で最高のパフォーマンスを発揮し、検証セットで 2.855、独立セットで 2.911 の平均絶対誤差 (MAE) をもたらしました。
テストセット。
要約(オリジナル)
The brain age has been proven to be a phenotype of relevance to cognitive performance and brain disease. Achieving accurate brain age prediction is an essential prerequisite for optimizing the predicted brain-age difference as a biomarker. As a comprehensive biological characteristic, the brain age is hard to be exploited accurately with models using feature engineering and local processing such as local convolution and recurrent operations that process one local neighborhood at a time. Instead, Vision Transformers learn global attentive interaction of patch tokens, introducing less inductive bias and modeling long-range dependencies. In terms of this, we proposed a novel network for learning brain age interpreting with global and local dependencies, where the corresponding representations are captured by Successive Permuted Transformer (SPT) and convolution blocks. The SPT brings computation efficiency and locates the 3D spatial information indirectly via continuously encoding 2D slices from different views. Finally, we collect a large cohort of 22645 subjects with ages ranging from 14 to 97 and our network performed the best among a series of deep learning methods, yielding a mean absolute error (MAE) of 2.855 in validation set, and 2.911 in an independent test set.
arxiv情報
著者 | Yanwu Yang,Xutao Guo,Zhikai Chang,Chenfei Ye,Yang Xiang,Haiyan Lv,Ting Ma |
発行日 | 2022-09-19 11:30:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google