要約
ブレイン コンピューター インターフェイス (BCI) は、運動障害を持つ個人のコミュニケーションを可能にする可能性を示しています。
Brain-to-Speech 技術などの最近の進歩は、神経活動から音声を再構築することを目的としています。
しかし、非侵襲的技術を使用して想像上の音声や視覚的イメージなどのコミュニケーション関連パラダイムを解読することは依然として困難です。
この研究では、16 人の参加者からの EEG データの位相ロック値 (PLV) を介して神経同期と機能的接続性を調べることにより、これら 2 つのパラダイムにおける脳のダイナミクスを分析します。
その結果、視覚的なイメージは視覚皮質でより高い PLV 値を生成し、空間ネットワークに関与する一方、想像上の音声は一貫した同期を示し、主に言語関連領域に関与することが示されました。
これらの発見は、想像上の音声が言語駆動型の BCI アプリケーションに適している一方で、視覚的な画像は音声障害を持つユーザーの BCI システムを補完できることを示唆しています。
BCI パフォーマンスを最適化するには、パーソナライズされたキャリブレーションが不可欠です。
要約(オリジナル)
Brain-computer interfaces (BCIs) have shown promise in enabling communication for individuals with motor impairments. Recent advancements like brain-to-speech technology aim to reconstruct speech from neural activity. However, decoding communication-related paradigms, such as imagined speech and visual imagery, using non-invasive techniques remains challenging. This study analyzes brain dynamics in these two paradigms by examining neural synchronization and functional connectivity through phase-locking values (PLV) in EEG data from 16 participants. Results show that visual imagery produces higher PLV values in visual cortex, engaging spatial networks, while imagined speech demonstrates consistent synchronization, primarily engaging language-related regions. These findings suggest that imagined speech is suitable for language-driven BCI applications, while visual imagery can complement BCI systems for users with speech impairments. Personalized calibration is crucial for optimizing BCI performance.
arxiv情報
著者 | Seo-Hyun Lee,Ji-Ha Park,Deok-Seon Kim |
発行日 | 2024-11-29 16:34:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google