Point Cloud Context Analysis for Rehabilitation Grasping Assistance

要約

障害のある患者が作業を把握するのを支援するために手の外骨格を制御することは、ユーザーの意図を推測することが難しいため、困難です。
私たちは、日常の把握タスクの大部分が、3D 点群からの環境幾何学的形状のリアルタイム分析を通じて推測できる、小さな一連のカテゴリまたはモードに分類されると仮説を立てています。
この論文では、日常生活の活動を知らせ、支援することを目的とした、家庭の場面の意味論的な画像ラベル付けのための低コストのリアルタイム システムを紹介します。
このシステムは、小型深度カメラ、慣性測定ユニット、マイクロプロセッサーで構成されています。
複雑な 3D シーンを毎秒 30 フレーム以上で処理しながら、事前定義されたモードの分類で 85% 以上の精度を達成できます。
各モード内で、把握可能なオブジェクトを検出して位置を特定できます。
単純なオブジェクト形状の場合、把握点は平均 1 cm 以内で正確に推定できます。
このシステムは、ロボット支援によるリハビリテーションや手作業の支援にも応用できる可能性があります。

要約(オリジナル)

Controlling hand exoskeletons for assisting impaired patients in grasping tasks is challenging because it is difficult to infer user intent. We hypothesize that majority of daily grasping tasks fall into a small set of categories or modes which can be inferred through real-time analysis of environmental geometry from 3D point clouds. This paper presents a low-cost, real-time system for semantic image labeling of household scenes with the objective to inform and assist activities of daily living. The system consists of a miniature depth camera, an inertial measurement unit and a microprocessor. It is able to achieve 85% or higher accuracy at classification of predefined modes while processing complex 3D scenes at over 30 frames per second. Within each mode it can detect and localize graspable objects. Grasping points can be correctly estimated on average within 1 cm for simple object geometries. The system has potential applications in robotic-assisted rehabilitation as well as manual task assistance.

arxiv情報

著者 Jackson M. Steinkamp,Laura J. Brattain,Conor J. Walsh,Robert D. Howe
発行日 2024-11-12 20:26:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク