要約
深層学習手法は、脳画像解析において過去数年間で急速に進歩しましたが、通常はラベル付けされたデータが限られているため制限を受けます。
ラベルなしデータの事前トレーニング済みモデルは、自然言語処理やコンピューター ビジョンを含む多くの領域での特徴学習における有望な改善を示しています。
ただし、この技術は脳ネットワーク分析では十分に研究されていません。
この論文では、既存のラベルなしデータを脳機能ネットワーク分類に活用するための、Transformer ネットワークを使用した事前トレーニング方法に焦点を当てました。
まず、脳機能ネットワーク分類のために、BrainNPT と名付けられた Transformer ベースのニューラル ネットワークを提案しました。
提案された方法は、脳ネットワークの表現を効果的にキャプチャするために、Transformer モデルの分類埋め込みベクトルとして
次に、ラベルのない脳ネットワークデータを活用して脳ネットワークの構造情報を学習するための BrainNPT モデルの事前学習フレームワークを提案しました。
分類実験の結果、事前トレーニングなしの BrainNPT モデルが最先端のモデルで最高のパフォーマンスを達成し、事前トレーニングありの BrainNPT モデルが最先端のモデルを大幅に上回ったことが実証されました。
事前トレーニング BrainNPT モデルは、事前トレーニングなしのモデルと比較して精度が 8.75% 向上しました。
さらに、事前トレーニング戦略を比較し、モデルのパラメーターの影響を分析し、トレーニングされたモデルを解釈しました。
要約(オリジナル)
Deep learning methods have advanced quickly in brain imaging analysis over the past few years, but they are usually restricted by the limited labeled data. Pre-trained model on unlabeled data has presented promising improvement in feature learning in many domains, including natural language processing and computer vision. However, this technique is under-explored in brain network analysis. In this paper, we focused on pre-training methods with Transformer networks to leverage existing unlabeled data for brain functional network classification. First, we proposed a Transformer-based neural network, named as BrainNPT, for brain functional network classification. The proposed method leveraged
arxiv情報
著者 | Jinlong Hu,Yangmin Huang,Nan Wang,Shoubin Dong |
発行日 | 2023-08-02 09:37:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google