A Laser-guided Interaction Interface for Providing Effective Robot Assistance to People with Upper Limbs Impairments

要約

ロボット工学は、障害のある人々が日常活動への独立性と関与を強化するのを支援する重要な可能性を示しています。
実際、インテリジェントロボットインターフェイスの展開に関するホームケア支援には、社会的長期的な影響が期待されています。
この作品は、日常生活の活動において、脳卒中の怪我の影響を受けた人など、上肢の障害を持つ人々を支援するために開発された人間のロボットインターフェイスを提示します。
提案されたインターフェイスは、視覚的なサーボガイダンスコンポーネントを活用します。これは、安価で効果的なレーザーエミッターデバイスを利用しています。
ロボットのワークスペース内の表面にレーザーを投影することにより、ユーザーはロボットマニピュレーターを目的の場所に導き、オブジェクトに到達、把握、操作することができます。
ターゲットユーザーを考慮すると、レーザーエミッタは頭に装着されており、環境内のレーザーを指すヘッドの動きでロボットの動きを直感的に制御できます。これは、ニューラルネットワークベースの知覚モジュールで検出されます。
インターフェイスは2つの制御モダリティを実装します。最初にユーザーが特定の場所を直接選択できるようにし、ロボットにそれらのポイントに到達するように命じます。
2番目は、ボタンを備えた紙キーボードを採用しています。ボタンは、レーザーを指すことで事実上押すことができます。
これらのボタンは、エンドエフェクターのデカルト速度をより直接的に制御できるようにし、グリッパーのアクションを指揮するなどの追加の機能を提供します。
提案されたインターフェイスは、1DOFのくちばしのようなグリッパーを備えた6DOF支援ロボットマニピュレーターを含む一連の操作タスクで評価されます。
2つのインターフェイスのモダリティを組み合わせて、上肢障害のある人に通常影響を受ける両手能力を必要とするタスクを正常に達成します。

要約(オリジナル)

Robotics has shown significant potential in assisting people with disabilities to enhance their independence and involvement in daily activities. Indeed, a societal long-term impact is expected in home-care assistance with the deployment of intelligent robotic interfaces. This work presents a human-robot interface developed to help people with upper limbs impairments, such as those affected by stroke injuries, in activities of everyday life. The proposed interface leverages on a visual servoing guidance component, which utilizes an inexpensive but effective laser emitter device. By projecting the laser on a surface within the workspace of the robot, the user is able to guide the robotic manipulator to desired locations, to reach, grasp and manipulate objects. Considering the targeted users, the laser emitter is worn on the head, enabling to intuitively control the robot motions with head movements that point the laser in the environment, which projection is detected with a neural network based perception module. The interface implements two control modalities: the first allows the user to select specific locations directly, commanding the robot to reach those points; the second employs a paper keyboard with buttons that can be virtually pressed by pointing the laser at them. These buttons enable a more direct control of the Cartesian velocity of the end-effector and provides additional functionalities such as commanding the action of the gripper. The proposed interface is evaluated in a series of manipulation tasks involving a 6DOF assistive robot manipulator equipped with 1DOF beak-like gripper. The two interface modalities are combined to successfully accomplish tasks requiring bimanual capacity that is usually affected in people with upper limbs impairments.

arxiv情報

著者 Davide Torielli,Liana Bertoni,Luca Muratore,Nikos Tsagarakis
発行日 2025-03-20 09:37:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク