要約
車輪付き、四葉型、またはヒューマノイドの形を備えたロボットは、構築された環境にますます統合されています。
しかし、人間の社会的学習とは異なり、それらは固有の認知発達のための重要な経路を欠いています。つまり、相互作用中の人間のフィードバックから学ぶことです。
動的および不確実な環境での人間のユビキタスな観察、監督、共有制御を理解するために、この研究では、脳波(EEG)シグナルの分類を可能にして認知的に要求し、安全批判的なイベントを検出できる脳コンピューターインターフェイス(BCI)フレームワークを提示します。
タイムリーでやる気のある共同ロボットエンジニアリングアプリケーションとして、スマートモビリティシステムとロボット車の安全性能に持続的なボトルネックをもたらす半自動ロボット運転代表のリスクの高いイベントにフラグを立てるための人間のループシナリオをシミュレートします。
少数のショット学習の最近の進歩に基づいて、私たちは、堅牢なEEGエンコード信号表現を生成するために、ダイナミックタイムワーピングバリセンターの平均化アプローチとペアになった二重のアテナテンションシャム畳み込みネットワークを提案します。
逆ソースのローカリゼーションは、ブロードマンエリア4および9の活性化を明らかにし、タスク関連の精神画像中の知覚と行動の結合を示しています。
このモデルは、データサース条件下で80%の分類精度を達成し、統合された勾配属性によって測定されるように、最先端の方法と比較して、顕著な特徴の有用性がほぼ100%増加します。
パフォーマンスを超えて、この研究は、BCIエージェントに必要な認知アーキテクチャの理解に貢献しています。特に、多様な精神状態を分類し、被験者間および被験者内適応の両方をサポートする注意と記憶メカニズムの役割があります。
全体として、この研究は、複雑な構築環境でのサービスロボットの認知ロボット工学と社会的ガイド付き学習の開発を進めています。
要約(オリジナル)
Robots with wheeled, quadrupedal, or humanoid forms are increasingly integrated into built environments. However, unlike human social learning, they lack a critical pathway for intrinsic cognitive development, namely, learning from human feedback during interaction. To understand human ubiquitous observation, supervision, and shared control in dynamic and uncertain environments, this study presents a brain-computer interface (BCI) framework that enables classification of Electroencephalogram (EEG) signals to detect cognitively demanding and safety-critical events. As a timely and motivating co-robotic engineering application, we simulate a human-in-the-loop scenario to flag risky events in semi-autonomous robotic driving-representative of long-tail cases that pose persistent bottlenecks to the safety performance of smart mobility systems and robotic vehicles. Drawing on recent advances in few-shot learning, we propose a dual-attention Siamese convolutional network paired with Dynamic Time Warping Barycenter Averaging approach to generate robust EEG-encoded signal representations. Inverse source localization reveals activation in Broadman areas 4 and 9, indicating perception-action coupling during task-relevant mental imagery. The model achieves 80% classification accuracy under data-scarce conditions and exhibits a nearly 100% increase in the utility of salient features compared to state-of-the-art methods, as measured through integrated gradient attribution. Beyond performance, this study contributes to our understanding of the cognitive architecture required for BCI agents-particularly the role of attention and memory mechanisms-in categorizing diverse mental states and supporting both inter- and intra-subject adaptation. Overall, this research advances the development of cognitive robotics and socially guided learning for service robots in complex built environments.
arxiv情報
著者 | Xiaoshan Zhou,Carol C. Menassa,Vineet R. Kamat |
発行日 | 2025-04-14 15:06:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google