要約
効果的なヒューマン ロボット インタラクション (HRI) には、人間の姿勢を正確に推定することが不可欠です。
ユーザーの腕の動きを観察することで、ロボットは支援を提供したり、衝突を回避したりする際に適切に反応できます。
視覚認識は人間の姿勢を推定する可能性をもたらしますが、不十分な照明や遮蔽などの要因によって妨げられる可能性があります。
さらに、ウェアラブル慣性センサーは便利ですが、絶対的な位置情報を提供しないため、頻繁に校正する必要があります。
Force-myography (FMG) は、筋肉の摂動を外部から測定する代替アプローチです。
これは指の動きを観察するために使用されてきましたが、腕全体の状態推定への応用は未開発です。
このレターでは、HRI のリアルタイム アプリケーションとして人間の腕の状態を観察できるウェアラブル FMG デバイスの使用について調査します。
ユーザーの肩から腕の物理的な姿勢までの FMG 測定値をマッピングするための Transformer ベースのモデルを提案します。
このモデルは、精度の低下が限定的であるものの、他のユーザーに譲渡できることも示されています。
ロボットアームを使った現実世界の実験を通じて、視覚に頼らない衝突回避を実証します。
要約(オリジナル)
Accurate human pose estimation is essential for effective Human-Robot Interaction (HRI). By observing a user’s arm movements, robots can respond appropriately, whether it’s providing assistance or avoiding collisions. While visual perception offers potential for human pose estimation, it can be hindered by factors like poor lighting or occlusions. Additionally, wearable inertial sensors, though useful, require frequent calibration as they do not provide absolute position information. Force-myography (FMG) is an alternative approach where muscle perturbations are externally measured. It has been used to observe finger movements, but its application to full arm state estimation is unexplored. In this letter, we investigate the use of a wearable FMG device that can observe the state of the human arm for real-time applications of HRI. We propose a Transformer-based model to map FMG measurements from the shoulder of the user to the physical pose of the arm. The model is also shown to be transferable to other users with limited decline in accuracy. Through real-world experiments with a robotic arm, we demonstrate collision avoidance without relying on visual perception.
arxiv情報
著者 | Rotem Atari,Eran Bamani,Avishai Sintov |
発行日 | 2024-11-12 08:53:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google