Diegetic Graphical User Interfaces and Intuitive Control of Assistive Robots via Eye-gaze

要約

四肢麻痺および同様の形態の麻痺を持つ人は、自律性の欠如により身体的および感情的に苦しみます。
この自律性の一部を取り戻すために、補助ロボットアームが生活の自立性を高めることが示されています。
ただし、麻痺のあるユーザーは、これらのデバイスの制御に独特の困難な状況をもたらします。
この記事では、ロボットに適用される視線制御インターフェースのための、斬新で直観的かつ計算コストの低いアプローチである、ダイジェティック グラフィカル ユーザー インターフェースの使用方法を紹介します。
基準マーカーと組み合わせたシンボルを使用することで、現実世界にインタラクティブなボタンを定義でき、ユーザーは視線によってトリガーでき、環境に簡単に埋め込むことができます。
このシステムを適用して、3 自由度のロボット アームを操縦して、精密なピック アンド プレース タスクを実行します。
インターフェイスはロボットに直接配置されているため、直感的かつ直接的な対話が可能であり、外部画面、メニュー、ロボットの間でコンテキストを切り替える必要がありません。
キャリブレーションと短い慣れの後、さまざまな背景、年齢、視力条件からの 21 人の参加者が、システムのベンチマークとなる Yale-CMU-Berkeley (YCB) ブロック ピック アンド プレイス プロトコルを完了し、平均スコア 13.71 を達成しました。
最大16.00ポイント。
優れたユーザビリティとユーザー エクスペリエンスが報告されています (システム ユーザビリティ スコア 75.36) と同時に、タスク ワークロードの低さ (NASA-TLX 44.76) も達成されています。
結果は、ユーザーが最小限の練習と小さな認知負荷で複数のインターフェイス要素を使用してアクションを実行できることを示しています。
私たちの知る限り、これは、目や顔のジェスチャーを必要とせずに、デカルトロボット制御の視線だけでロボット制御を可能にする、簡単に再構成可能な初めてのスクリーンレスシステムです。

要約(オリジナル)

Individuals with tetraplegia and similar forms of paralysis suffer physically and emotionally due to a lack of autonomy. To help regain part of this autonomy, assistive robotic arms have been shown to increase living independence. However, users with paralysis pose unique challenging conditions for the control of these devices. In this article, we present the use of Diegetic Graphical User Interfaces, a novel, intuitive, and computationally inexpensive approach for gaze-controlled interfaces applied to robots. By using symbols paired with fiducial markers, interactive buttons can be defined in the real world which the user can trigger via gaze, and which can be embedded easily into the environment. We apply this system to pilot a 3-degree-of-freedom robotic arm for precision pick-and-place tasks. The interface is placed directly on the robot to allow intuitive and direct interaction, eliminating the need for context-switching between external screens, menus, and the robot. After calibration and a brief habituation period, twenty-one participants from multiple backgrounds, ages and eye-sight conditions completed the Yale-CMU-Berkeley (YCB) Block Pick and Place Protocol to benchmark the system, achieving a mean score of 13.71 out of the maximum 16.00 points. Good usability and user experience were reported (System Usability Score of 75.36) while achieving a low task workload measure (NASA-TLX of 44.76). Results show that users can employ multiple interface elements to perform actions with minimal practice and with a small cognitive load. To our knowledge, this is the first easily reconfigurable screenless system that enables robot control entirely via gaze for Cartesian robot control without the need for eye or face gestures.

arxiv情報

著者 Emanuel Nunez Sardinha,Marcela Munera,Nancy Zook,David Western,Virginia Ruiz Garate
発行日 2024-01-08 15:00:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク