BrainNPT: Pre-training of Transformer networks for brain network classification

要約

深層学習手法は、脳画像解析において過去数年間で急速に進歩しましたが、通常はラベル付けされたデータが限られているため制限を受けます。
ラベルなしデータの事前トレーニング済みモデルは、自然言語処理やコンピューター ビジョンを含む多くの領域での特徴学習における有望な改善を示しています。
ただし、この技術は脳ネットワーク分析では十分に研究されていません。
この論文では、既存のラベルなしデータを脳機能ネットワーク分類に活用するための、Transformer ネットワークを使用した事前トレーニング方法に焦点を当てました。
まず、脳機能ネットワーク分類のために、BrainNPT と名付けられた Transformer ベースのニューラル ネットワークを提案しました。
提案された方法は、脳ネットワークの表現を効果的にキャプチャするために、Transformer モデルの分類埋め込みベクトルとして トークンを活用しました。
次に、ラベルのない脳ネットワークデータを活用して脳ネットワークの構造情報を学習するための BrainNPT モデルの事前学習フレームワークを提案しました。
分類実験の結果、事前トレーニングなしの BrainNPT モデルが最先端のモデルで最高のパフォーマンスを達成し、事前トレーニングありの BrainNPT モデルが最先端のモデルを大幅に上回ったことが実証されました。
事前トレーニング BrainNPT モデルは、事前トレーニングなしのモデルと比較して精度が 8.75% 向上しました。
さらに、事前トレーニング戦略を比較し、モデルのパラメーターの影響を分析し、トレーニングされたモデルを解釈しました。

要約(オリジナル)

Deep learning methods have advanced quickly in brain imaging analysis over the past few years, but they are usually restricted by the limited labeled data. Pre-trained model on unlabeled data has presented promising improvement in feature learning in many domains, including natural language processing and computer vision. However, this technique is under-explored in brain network analysis. In this paper, we focused on pre-training methods with Transformer networks to leverage existing unlabeled data for brain functional network classification. First, we proposed a Transformer-based neural network, named as BrainNPT, for brain functional network classification. The proposed method leveraged token as a classification embedding vector for the Transformer model to effectively capture the representation of brain network. Second, we proposed a pre-training framework for BrainNPT model to leverage unlabeled brain network data to learn the structure information of brain networks. The results of classification experiments demonstrated the BrainNPT model without pre-training achieved the best performance with the state-of-the-art models, and the BrainNPT model with pre-training strongly outperformed the state-of-the-art models. The pre-training BrainNPT model improved 8.75% of accuracy compared with the model without pre-training. We further compared the pre-training strategies, analyzed the influence of the parameters of the model, and interpreted the trained model.

arxiv情報

著者 Jinlong Hu,Yangmin Huang,Nan Wang,Shoubin Dong
発行日 2023-08-02 09:37:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NE, q-bio.NC パーマリンク