要約
個人がタスクを把握するのを支援するために手の外骨格を制御することは、ユーザーの意図を理解することが難しいため、課題が生じます。
私たちは、日常生活活動 (ADL) 中の日常の把握作業のほとんどは、3D 点群からオブジェクトの幾何学形状 (単純および複雑) を分析することで推定できることを提案します。
この研究では、家庭のシーンを意味的に識別するために設計されたリアルタイム システムである PointGrasp を導入し、調整されたエンドツーエンドの把握タスクの ADL 中の支援をサポートおよび強化することを目的としています。
このシステムは、慣性測定ユニットを備えた RGB-D カメラと、腱駆動のソフト ロボット グローブに統合されたマイクロプロセッサで構成されています。
RGB-D カメラは、1 秒あたり 30 フレームを超える速度で 3D シーンを処理します。
提案されたパイプラインは、単純な形状の場合は 0.8 $\pm$ 0.39 cm、複雑な形状の場合は 0.11 $\pm$ 0.06 cm の平均 RMSE を示します。
各モード内で、到達可能なオブジェクトを識別して特定します。
このシステムは、エンドツーエンドの視覚主導型ロボット支援リハビリテーション手動タスクに有望です。
要約(オリジナル)
Controlling hand exoskeletons to assist individuals with grasping tasks poses a challenge due to the difficulty in understanding user intentions. We propose that most daily grasping tasks during activities of daily living (ADL) can be deduced by analyzing object geometries (simple and complex) from 3D point clouds. The study introduces PointGrasp, a real-time system designed for identifying household scenes semantically, aiming to support and enhance assistance during ADL for tailored end-to-end grasping tasks. The system comprises an RGB-D camera with an inertial measurement unit and a microprocessor integrated into a tendon-driven soft robotic glove. The RGB-D camera processes 3D scenes at a rate exceeding 30 frames per second. The proposed pipeline demonstrates an average RMSE of 0.8 $\pm$ 0.39 cm for simple and 0.11 $\pm$ 0.06 cm for complex geometries. Within each mode, it identifies and pinpoints reachable objects. This system shows promise in end-to-end vision-driven robotic-assisted rehabilitation manual tasks.
arxiv情報
著者 | Chen Hu,Shirui Lyu,Eojin Rho,Daekyum Kim,Shan Luo,Letizia Gionfrida |
発行日 | 2024-03-19 10:59:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google