Point Cloud-based Grasping for Soft Hand Exoskeleton

要約

把持は、環境中の物体と相互作用し、操作するための基本的なスキルである。しかし、この能力は手に障害のある人にとっては困難なものである。把持を支援するように設計された柔らかい手の外骨格は、手の基本的な機能を強化または回復させることができるが、環境を理解することが複雑であるため、ユーザーを効果的に支援するためにこれらの柔らかい外骨格を制御することは依然として困難である。本研究では、奥行き知覚からの文脈認識を活用して把持対象を予測し、次の制御状態を決定する視覚ベースの予測制御フレームワークを提示する。大規模なラベル付きデータセットを必要とし、一般化可能性に苦慮するデータ駆動型アプローチとは異なり、我々の手法は幾何学的モデリングに立脚しており、多様な把持シナリオにおいて頑健な適応を可能にする。把持能力スコア(Grasping Ability Score: GAS)を用いて性能を評価したところ、本システムは15個の物体と健常被験者において91%という最先端のGASを達成し、様々な種類の物体において有効であることを実証した。提案手法は、未見の物体に対しても再構成の成功を維持し、学習ベースのモデルと比較して汎化性が高いことが明らかになった。

要約(オリジナル)

Grasping is a fundamental skill for interacting with and manipulating objects in the environment. However, this ability can be challenging for individuals with hand impairments. Soft hand exoskeletons designed to assist grasping can enhance or restore essential hand functions, yet controlling these soft exoskeletons to support users effectively remains difficult due to the complexity of understanding the environment. This study presents a vision-based predictive control framework that leverages contextual awareness from depth perception to predict the grasping target and determine the next control state for activation. Unlike data-driven approaches that require extensive labelled datasets and struggle with generalizability, our method is grounded in geometric modelling, enabling robust adaptation across diverse grasping scenarios. The Grasping Ability Score (GAS) was used to evaluate performance, with our system achieving a state-of-the-art GAS of 91% across 15 objects and healthy participants, demonstrating its effectiveness across different object types. The proposed approach maintained reconstruction success for unseen objects, underscoring its enhanced generalizability compared to learning-based models.

arxiv情報

著者 Chen Hu,Enrica Tricomi,Eojin Rho,Daekyum Kim,Lorenzo Masia,Shan Luo,Letizia Gionfrida
発行日 2025-04-04 11:40:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク