要約
上肢の移動性障害のある人は、日常生活の活動を行うために支援技術を必要とすることがよくあります。
視線追跡はロボット支援の有望な方法として浮上していますが、既存のソリューションには十分なフィードバックメカニズムがなく、ユーザーの意図の認識の不確実性と適応性の低下につながります。
このペーパーでは、視線追跡、ロボット支援、および混合現実性を組み合わせた統合されたシステムであるMihrageインターフェイスを紹介し、目の動きを使用してロボットを制御するための没入型環境を作成します。
このシステムは、4人の参加者を含む実験プロトコルを通じて評価され、視線の精度、ロボット位置決め精度、およびピックアンドプレイスタスクの全体的な成功を評価しました。
結果は、1.28 cmから2.14 cmの範囲の個々の変動で、1.46 cmの平均視線固定誤差を示しました。
ロボットアームは、 +-1.53 cmの平均位置決め誤差を示し、インターフェイスの解像度とキャリブレーションの制約に起因する不一致がありました。
ピックアンドプレイスタスクでは、システムは80%の成功率を達成し、ユーザーへの視覚的なフィードバックとの人間とロボットの相互作用のアクセシビリティを改善する可能性を強調しました。
要約(オリジナル)
Individuals with upper limb mobility impairments often require assistive technologies to perform activities of daily living. While gaze-tracking has emerged as a promising method for robotic assistance, existing solutions lack sufficient feedback mechanisms, leading to uncertainty in user intent recognition and reduced adaptability. This paper presents the MIHRAGe interface, an integrated system that combines gaze-tracking, robotic assistance, and a mixed-reality to create an immersive environment for controlling the robot using only eye movements. The system was evaluated through an experimental protocol involving four participants, assessing gaze accuracy, robotic positioning precision, and the overall success of a pick and place task. Results showed an average gaze fixation error of 1.46 cm, with individual variations ranging from 1.28 cm to 2.14 cm. The robotic arm demonstrated an average positioning error of +-1.53 cm, with discrepancies attributed to interface resolution and calibration constraints. In a pick and place task, the system achieved a success rate of 80%, highlighting its potential for improving accessibility in human-robot interaction with visual feedback to the user.
arxiv情報
著者 | Rafael R. Baptista,Nina R. Gerszberg,Ricardo V. Godoy,Gustavo J. G. Lahr |
発行日 | 2025-05-06 19:08:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google