要約
[…] Defenyysicaloperationインターフェイスを使用すると、選択したロボットボディパーツに仮想力を適用することにより、ロボットのさまざまな機能(単一/二重腕操作、ホイール/脚の移動など)を操作できます。
このアプローチは、物理的な人間とロボットの相互作用の直感性をエミュレートしますが、同時に、「マリオネット」インターフェイスに似た方法で、安全な距離からロボットをテレホティーズすることができます。
システムは、「マリオネット」のメタファーとより適切に整合するためにウェアラブルの触覚フィードバック機能でさらに強化され、触覚チャネルが有効になっている場合となしでその有効性を検証するためにユーザー調査が実施されました。
ロボットの独立性の重要性を考慮すると、DefenySyoperationインターフェイスには、たとえば、両腕のモバイルベースロボットの双方向のモバイルベースロボットの操作と輸送タスクのテレオ操作に直面する自律モジュールが組み込まれています。
レーザー誘導インターフェイスを使用すると、ユーザーは、シンプルだが効果的なレーザーエミッタデバイスの利用を通じて、ロボットに興味のあるポイントを示すことができます。
ニューラルネットワークベースのビジョンシステムを使用すると、ロボットはレーザー投影をリアルタイムで追跡し、ユーザーがオブジェクトのような固定された目標だけでなく、従うべきパスも示すことができます。
実装された自律行動により、モバイルマニピュレーターは、指示された目標に従うためにそのcomonalipulation能力を採用しています。
動作は、動作ツリーを使用してモデル化され、反応性を活用して目標位置の変化に迅速に反応し、モジュール性をタスクのニーズに合わせてモジュール性を備えています。
提案されたレーザーインターフェイスは、支援シナリオでも採用されています。
この場合、上肢の障害を持つユーザーは、日常生活の活動に協力して対処するために、頭のあるレーザーエミッターを関心のあるポイントに向けることにより、支援マニピュレーターを制御できます。
[…]
要約(オリジナル)
[…] With the TelePhysicalOperation interface, the user can teleoperate the different capabilities of a robot (e.g., single/double arm manipulation, wheel/leg locomotion) by applying virtual forces on selected robot body parts. This approach emulates the intuitiveness of physical human-robot interaction, but at the same time it permits to teleoperate the robot from a safe distance, in a way that resembles a ‘Marionette’ interface. The system is further enhanced with wearable haptic feedback functions to align better with the ‘Marionette’ metaphor, and a user study has been conducted to validate its efficacy with and without the haptic channel enabled. Considering the importance of robot independence, the TelePhysicalOperation interface incorporates autonomy modules to face, for example, the teleoperation of dual-arm mobile base robots for bimanual object grasping and transportation tasks. With the laser-guided interface, the user can indicate points of interest to the robot through the utilization of a simple but effective laser emitter device. With a neural network-based vision system, the robot tracks the laser projection in real time, allowing the user to indicate not only fixed goals, like objects, but also paths to follow. With the implemented autonomous behavior, a mobile manipulator employs its locomanipulation abilities to follow the indicated goals. The behavior is modeled using Behavior Trees, exploiting their reactivity to promptly respond to changes in goal positions, and their modularity to adapt the motion planning to the task needs. The proposed laser interface has also been employed in an assistive scenario. In this case, users with upper limbs impairments can control an assistive manipulator by directing a head-worn laser emitter to the point of interests, to collaboratively address activities of everyday life. […]
arxiv情報
著者 | Davide Torielli |
発行日 | 2025-05-12 15:33:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google