要約
タイトル:EEGシステムにおける解釈可能かつ堅牢なAI:調査
要約:
– EEGシステムにおける人工知能(AI)と脳波測定(EEG)の密接な関係は、AI時代の人間とコンピューターの相互作用技術を大幅に進展させています。
– 伝統的なEEGシステムとは異なり、AIに基づくEEGシステムの解釈可能性と堅牢性は特に重要になっています。
– 解釈可能性は、AIモデルの内部動作メカニズムを明確にし、ユーザーの信頼を得るために必要です。
– 堅牢性は、感度が高く壊れやすいEEG信号に対するAIの信頼性を反映し、攻撃や摂動に対する強さを意味します。
– これらの問題に関して、研究が進んでおり、本論文ではEEGシステムにおける解釈可能かつ堅牢なAI技術を総合的に説明しています。
– 具体的には、解釈可能性については、バックプロパゲーション、摂動、内在的解釈可能性の3つのタイプに分類し、堅牢性のメカニズムについては、ノイズとアーティファクト、人間の変動性、データ取得の不安定性、攻撃に対する堅牢性の4つのクラスに分類しています。
– 最後に、EEGシステムにおける解釈可能かつ堅牢なAIにおけるいくつかの未解決の課題を識別し、その将来の展望についてさらに議論しています。
要約(オリジナル)
The close coupling of artificial intelligence (AI) and electroencephalography (EEG) has substantially advanced human-computer interaction (HCI) technologies in the AI era. Different from traditional EEG systems, the interpretability and robustness of AI-based EEG systems are becoming particularly crucial. The interpretability clarifies the inner working mechanisms of AI models and thus can gain the trust of users. The robustness reflects the AI’s reliability against attacks and perturbations, which is essential for sensitive and fragile EEG signals. Thus the interpretability and robustness of AI in EEG systems have attracted increasing attention, and their research has achieved great progress recently. However, there is still no survey covering recent advances in this field. In this paper, we present the first comprehensive survey and summarize the interpretable and robust AI techniques for EEG systems. Specifically, we first propose a taxonomy of interpretability by characterizing it into three types: backpropagation, perturbation, and inherently interpretable methods. Then we classify the robustness mechanisms into four classes: noise and artifacts, human variability, data acquisition instability, and adversarial attacks. Finally, we identify several critical and unresolved challenges for interpretable and robust AI in EEG systems and further discuss their future directions.
arxiv情報
著者 | Xinliang Zhou,Chenyu Liu,Liming Zhai,Ziyu Jia,Cuntai Guan,Yang Liu |
発行日 | 2023-04-21 05:51:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI