Anytime, Anywhere: Human Arm Pose from Smartwatch Data for Ubiquitous Robot Control and Teleoperation

要約

この研究では、単一のスマートウォッチから人間の腕の姿勢を推定するための最適化された機械学習アプローチを考案しました。
私たちのアプローチにより、可能な手首と肘の位置の分布が得られ、不確実性の測定と、複数の可能な腕の姿勢の解決策、つまりマルチモーダルな姿勢の分布の検出が可能になります。
推定された腕の姿勢と音声認識を組み合わせることで、スマートウォッチをユビキタスで低コストで多用途なロボット制御インターフェイスに変えます。
この直感的な制御インターフェイスにより、ユーザーがロボットの動作に迅速に介入したり、目標を一時的に調整したり、模倣によってまったく新しい制御ポリシーをトレーニングしたりできることを 2 つのユースケースで実証します。
広範な実験により、このアプローチにより、現在の最先端技術に比べて予測誤差が 40% 削減され、手首と肘の位置の平均誤差が 2.56 cm に達することが示されました。

要約(オリジナル)

This work devises an optimized machine learning approach for human arm pose estimation from a single smartwatch. Our approach results in a distribution of possible wrist and elbow positions, which allows for a measure of uncertainty and the detection of multiple possible arm posture solutions, i.e., multimodal pose distributions. Combining estimated arm postures with speech recognition, we turn the smartwatch into a ubiquitous, low-cost and versatile robot control interface. We demonstrate in two use-cases that this intuitive control interface enables users to swiftly intervene in robot behavior, to temporarily adjust their goal, or to train completely new control policies by imitation. Extensive experiments show that the approach results in a 40% reduction in prediction error over the current state-of-the-art and achieves a mean error of 2.56cm for wrist and elbow positions.

arxiv情報

著者 Fabian C Weigend,Shubham Sonawani,Michael Drolet,Heni Ben Amor
発行日 2023-06-22 20:29:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, I.m パーマリンク