EEG-GPT: Exploring Capabilities of Large Language Models for EEG Classification and Interpretation

要約

脳波検査 (EEG) に適用される従来の機械学習 (ML) アプローチでは、多くの場合、これは限定的な焦点であり、異なる時間スケール (ミリ秒単位の一時的なスパイクから数分続く発作まで) と空間スケール (局所的な高レベルの発作まで) にわたって発生する特定の脳活動を分離します。
全体的な睡眠活動に対する周波数振動)。
このサイロ化されたアプローチにより、マルチスケールの電気生理学的理解と分類機能を示す EEG ML モデルの開発が制限されます。
さらに、典型的な ML EEG アプローチはブラックボックス アプローチを利用しているため、臨床場面での解釈可能性と信頼性が制限されています。
そこで、我々は、大規模言語モデル (LLM) の進歩を活用した EEG 分類への統合アプローチである EEG-GPT を提案します。
EEG-GPT は、トレーニング データのわずか 2% を使用する数ショット学習パラダイムで正常脳波と異常脳波を分類する際に、現在の最先端の深層学習手法に匹敵する優れたパフォーマンスを達成します。
さらに、中間推論ステップを提供し、その運用において複数のスケールにわたって専門の脳波ツールを調整するという明確な利点があり、透明性があり解釈可能なステップごとの検証を提供し、それによって臨床現場での信頼性を促進します。

要約(オリジナル)

In conventional machine learning (ML) approaches applied to electroencephalography (EEG), this is often a limited focus, isolating specific brain activities occurring across disparate temporal scales (from transient spikes in milliseconds to seizures lasting minutes) and spatial scales (from localized high-frequency oscillations to global sleep activity). This siloed approach limits the development EEG ML models that exhibit multi-scale electrophysiological understanding and classification capabilities. Moreover, typical ML EEG approaches utilize black-box approaches, limiting their interpretability and trustworthiness in clinical contexts. Thus, we propose EEG-GPT, a unifying approach to EEG classification that leverages advances in large language models (LLM). EEG-GPT achieves excellent performance comparable to current state-of-the-art deep learning methods in classifying normal from abnormal EEG in a few-shot learning paradigm utilizing only 2% of training data. Furthermore, it offers the distinct advantages of providing intermediate reasoning steps and coordinating specialist EEG tools across multiple scales in its operation, offering transparent and interpretable step-by-step verification, thereby promoting trustworthiness in clinical contexts.

arxiv情報

著者 Jonathan W. Kim,Ahmed Alaa,Danilo Bernardo
発行日 2024-01-31 17:08:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP, q-bio.QM パーマリンク