要約
M2LADS(「マルチモーダル学習分析ダッシュボードを生成するためのシステム」と呼ばれるWebベースのシステムのデモンストレーションを提示します。
このシステムは、さまざまな生理学的および活動ベースのメトリックに関する詳細な洞察を提供し、Webベースのダッシュボード上のさまざまな生体認証データと行動データを提供します。
視覚化されたマルチモーダルデータには、注意と脳の活動を評価するための脳波(EEG)データ、心拍数メトリック、視覚的注意、ウェブカメラビデオ録画、監視対象タスクのアクティビティログを測定するためのデータが含まれます。
M2LADSは、2つの重要な方法でデータ科学者を支援することを目指しています。(1)参加者の経験の包括的な見解を提供し、参加者が関与する活動によって分類されたすべてのデータを表示し、(2)すべてのバイオシグナルとビデオを同期させ、簡単に促進することにより、
アクティビティ情報にエラーが含まれている場合は、データリライベリング。
要約(オリジナル)
We present a demonstration of a web-based system called M2LADS (‘System for Generating Multimodal Learning Analytics Dashboards’), designed to integrate, synchronize, visualize, and analyze multimodal data recorded during computer-based learning sessions with biosensors. This system presents a range of biometric and behavioral data on web-based dashboards, providing detailed insights into various physiological and activity-based metrics. The multimodal data visualized include electroencephalogram (EEG) data for assessing attention and brain activity, heart rate metrics, eye-tracking data to measure visual attention, webcam video recordings, and activity logs of the monitored tasks. M2LADS aims to assist data scientists in two key ways: (1) by providing a comprehensive view of participants’ experiences, displaying all data categorized by the activities in which participants are engaged, and (2) by synchronizing all biosignals and videos, facilitating easier data relabeling if any activity information contains errors.
arxiv情報
著者 | Alvaro Becerra,Roberto Daza,Ruth Cobos,Aythami Morales,Julian Fierrez |
発行日 | 2025-02-21 10:22:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google