‘Task-relevant autoencoding’ enhances machine learning for human neuroscience

要約

人間の神経科学では、機械学習は被験者の行動に関連する低次元の神経表現を明らかにするのに役立ちます。
ただし、最先端のモデルは通常、トレーニングに大規模なデータセットを必要とするため、サンプル数は少ないものの入力次元が多い人間の神経画像データに対して過剰適合する傾向があります。
ここでは、私たちが人間の神経科学で求める特徴がまさに被験者の行動に関連するものであるという事実を利用しました。
そこで、Classifier Enhancement (TRACE) によるタスク関連オートエンコーダーを開発し、標準オートエンコーダー、変分オートエンコーダー、および 2 つの大幅に切り捨てられた機械学習データセットの主成分分析と比較して、動作に関連した分離可能な表現を抽出するその機能をテストしました。
次に、動物や物体を観察した 59 人の被験者からの fMRI データに基づいてすべてのモデルを評価しました。
TRACE はすべてのモデルをほぼ一方的に上回っており、分類精度が最大 12% 向上し、「よりクリーンな」タスク関連表現の発見において最大 56% の向上が見られました。
これらの結果は、人間の行動に関連するさまざまなデータに対する TRACE の可能性を示しています。

要約(オリジナル)

In human neuroscience, machine learning can help reveal lower-dimensional neural representations relevant to subjects’ behavior. However, state-of-the-art models typically require large datasets to train, so are prone to overfitting on human neuroimaging data that often possess few samples but many input dimensions. Here, we capitalized on the fact that the features we seek in human neuroscience are precisely those relevant to subjects’ behavior. We thus developed a Task-Relevant Autoencoder via Classifier Enhancement (TRACE), and tested its ability to extract behaviorally-relevant, separable representations compared to a standard autoencoder, a variational autoencoder, and principal component analysis for two severely truncated machine learning datasets. We then evaluated all models on fMRI data from 59 subjects who observed animals and objects. TRACE outperformed all models nearly unilaterally, showing up to 12% increased classification accuracy and up to 56% improvement in discovering ‘cleaner’, task-relevant representations. These results showcase TRACE’s potential for a wide variety of data related to human behavior.

arxiv情報

著者 Seyedmehdi Orouji,Vincent Taschereau-Dumouchel,Aurelio Cortese,Brian Odegaard,Cody Cushing,Mouslim Cherkaoui,Mitsuo Kawato,Hakwan Lau,Megan A. K. Peters
発行日 2023-09-22 17:04:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.NC パーマリンク