要約
我々は、運動障害を持つ個人が視線を使用して協働ロボットを制御できるようにする視線ベースの操作システムである GazeGrasp を紹介します。
このシステムは、視線追跡に ESP32 CAM、視線検出に MediaPipe、オブジェクト位置特定に YOLOv8 を採用し、操作タスク用に Universal Robot UR10 と統合されています。
ユーザー固有のキャリブレーション後、システムは磁気スナップ効果による直感的なオブジェクトの選択と目のジェスチャーによるロボット制御を可能にします。
13 人の参加者を対象とした実験評価では、磁気スナップ効果により視線調整時間が大幅に短縮され、タスク効率が 31% 向上することが実証されました。
GazeGrasp は、ロボット支援のための堅牢なハンズフリー インターフェイスを提供し、ユーザーのアクセシビリティと自律性を強化します。
要約(オリジナル)
We present GazeGrasp, a gaze-based manipulation system enabling individuals with motor impairments to control collaborative robots using eye-gaze. The system employs an ESP32 CAM for eye tracking, MediaPipe for gaze detection, and YOLOv8 for object localization, integrated with a Universal Robot UR10 for manipulation tasks. After user-specific calibration, the system allows intuitive object selection with a magnetic snapping effect and robot control via eye gestures. Experimental evaluation involving 13 participants demonstrated that the magnetic snapping effect significantly reduced gaze alignment time, improving task efficiency by 31%. GazeGrasp provides a robust, hands-free interface for assistive robotics, enhancing accessibility and autonomy for users.
arxiv情報
著者 | Issatay Tokmurziyev,Miguel Altamirano Cabrera,Luis Moreno,Muhammad Haris Khan,Dzmitry Tsetserukou |
発行日 | 2025-01-14 08:32:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google