要約
自動化とモバイルロボット工学が作業環境を再構築するにつれて、生産性に対する期待の高まりは、人間のオペレーターに対する認知的需要を増加させ、潜在的なストレスと認知的過負荷につながります。
オペレーターの精神状態を正確に評価することは、パフォーマンスと幸福を維持するために重要です。
私たちは、主観的な時間知覚を使用します。これは、ストレスと認知負荷によって変更される可能性があり、敏感で低遅延の指標の幸福と認知株の指標です。
時間知覚の歪みは、意思決定、反応時間、および全体的なタスクの有効性に影響を与える可能性があり、適応性のある人間戦車相互作用システムの貴重なメトリックになります。
例として、人間の生理学的信号を使用して人間の戦闘時間の知覚を推定するためにどのように使用できるかを研究します。
人間のオペレーターは、小さなモバイルロボットの群れを導き、制御する必要があります。
アンケートデータに基づいて主観的な時間知覚に分類される視線追跡データを取得します。
我々の結果は、視線追跡データからの人の時間認識を正常に推定することを示しています。
このアプローチは、わずか30秒のデータを使用して、個々のベースの事前トレーニングから利益を得ることができます。
将来の作業では、閉じた制御ループで生理学的データを自動的に分類することにより、人間のオペレーターのニーズに対応するロボットを目指しています。
要約(オリジナル)
As automation and mobile robotics reshape work environments, rising expectations for productivity increase cognitive demands on human operators, leading to potential stress and cognitive overload. Accurately assessing an operator’s mental state is critical for maintaining performance and well-being. We use subjective time perception, which can be altered by stress and cognitive load, as a sensitive, low-latency indicator of well-being and cognitive strain. Distortions in time perception can affect decision-making, reaction times, and overall task effectiveness, making it a valuable metric for adaptive human-swarm interaction systems. We study how human physiological signals can be used to estimate a person’s subjective time perception in a human-swarm interaction scenario as example. A human operator needs to guide and control a swarm of small mobile robots. We obtain eye-tracking data that is classified for subjective time perception based on questionnaire data. Our results show that we successfully estimate a person’s time perception from eye-tracking data. The approach can profit from individual-based pretraining using only 30 seconds of data. In future work, we aim for robots that respond to human operator needs by automatically classifying physiological data in a closed control loop.
arxiv情報
著者 | Till Aust,Julian Kaduk,Heiko Hamann |
発行日 | 2025-04-08 21:30:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google