要約
メタ学習、つまり「学習するための学習」は、限られた量のデータで効率的な BCI 分類器トレーニングを可能にする有望なアプローチです。
何らかの形で類似した分類タスクのコレクションを効果的に使用し、最小限のデータのみが利用可能な新しいタスクに迅速に適応できます。
ただし、メタ学習を既存の分類器や BCI タスクに適用するには、多大な労力が必要です。
この問題に対処するために、メタ学習を利用して BCI やその他の EEG ベースのアプリケーションにおけるニューラル ネットワークの分類精度を向上させる自動ライブラリである EEG-Reptile を提案します。
爬虫類メタ学習アルゴリズムを利用して、EEG データのニューラル ネットワーク分類子を被験者間ドメインに適応させ、少量のデータで新しい被験者のより効率的な微調整を可能にします。
提案されたライブラリには、自動ハイパーパラメータ調整モジュール、データ管理パイプライン、Reptile メタ学習アルゴリズムの実装が組み込まれています。
EEG-Reptile 自動化レベルでは、メタ学習を深く理解していなくても使用できます。
2 つのベンチマーク データセット (BCI IV 2a、Lee2019 MI) と 3 つのニューラル ネットワーク アーキテクチャ (EEGNet、FBCNet、EEG-Inception) で EEG-Reptile の有効性を実証します。
私たちのライブラリは、従来の転移学習アプローチと比較して、ゼロショット学習シナリオと少数ショット学習シナリオの両方で改善を達成しました。
要約(オリジナル)
Meta-learning, i.e., ‘learning to learn’, is a promising approach to enable efficient BCI classifier training with limited amounts of data. It can effectively use collections of in some way similar classification tasks, with rapid adaptation to new tasks where only minimal data are available. However, applying meta-learning to existing classifiers and BCI tasks requires significant effort. To address this issue, we propose EEG-Reptile, an automated library that leverages meta-learning to improve classification accuracy of neural networks in BCIs and other EEG-based applications. It utilizes the Reptile meta-learning algorithm to adapt neural network classifiers of EEG data to the inter-subject domain, allowing for more efficient fine-tuning for a new subject on a small amount of data. The proposed library incorporates an automated hyperparameter tuning module, a data management pipeline, and an implementation of the Reptile meta-learning algorithm. EEG-Reptile automation level allows using it without deep understanding of meta-learning. We demonstrate the effectiveness of EEG-Reptile on two benchmark datasets (BCI IV 2a, Lee2019 MI) and three neural network architectures (EEGNet, FBCNet, EEG-Inception). Our library achieved improvement in both zero-shot and few-shot learning scenarios compared to traditional transfer learning approaches.
arxiv情報
著者 | Daniil A. Berdyshev,Artem M. Grachev,Sergei L. Shishkin,Bogdan L. Kozyrskiy |
発行日 | 2024-12-27 16:24:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google