HOOV: Hand Out-Of-View Tracking for Proprioceptive Interaction using Inertial Sensing

要約

タイトル:HOOV:慣性センシングを使用した自己位置感を利用した視野外トラッキング

要約:
– 現在のVRシステムは、視覚制御下でのインタラクションを目的として設計されている
– 内蔵カメラを使用して、ユーザーの手またはハンドコントローラーを、視野内で追跡する
– しかし、仮想オブジェクトに対するユーザーの視野外のインタラクションを無視するため、現在のシステムは、ヘッドモーションなしにすばやくアクセスできる仮想オブジェクトに関するユーザーのプロペリオセプションを考慮していない
– 本論文では、手首に装着した慣性センシングにより、HOOVを提供する
– HOOVは、ヘッドモーション外での手の位置を連続的に推定することにより、ヘッドセットの追跡を補完する
– 我々の革新的なデータ駆動型方法により、手の向きの連続的な推定だけから、手の位置と軌跡を予測することができる。この手法は、慣性観測のみに基づいて安定している
– HOOVは、指を挟むことで外部選択イベントを登録し、手首のデバイス内の触覚アクチュエータを使用して確認し、仮想コンテンツを選択、握り、ドロップすることができる
– モーションキャプチャーシステムによるトラッキング情報を使用して参加者がプロペリオセプティブ入力の正確性を評価するために、HOOVのパフォーマンスを2つのフォールドで比較した
– 2回目の評価では、参加者はHOOVのリアルタイム推定に基づいて相互作用を行った
– HOOVの目標に依存しない推定は、平均トラッキングエラー7.7 cmで、参加者がそれらを主張せずに周りの仮想オブジェクトに実用的にアクセスできるようにした
– HOOVが開く迅速なプロペリオセプティブインタラクションのより大きな入力スペースを利用するいくつかのアプリケーションをデモンストレーションし、技術の潜在能力について議論する

要約(オリジナル)

Current Virtual Reality systems are designed for interaction under visual control. Using built-in cameras, headsets track the user’s hands or hand-held controllers while they are inside the field of view. Current systems thus ignore the user’s interaction with off-screen content — virtual objects that the user could quickly access through proprioception without requiring laborious head motions to bring them into focus. In this paper, we present HOOV, a wrist-worn sensing method that allows VR users to interact with objects outside their field of view. Based on the signals of a single wrist-worn inertial sensor, HOOV continuously estimates the user’s hand position in 3-space to complement the headset’s tracking as the hands leave the tracking range. Our novel data-driven method predicts hand positions and trajectories from just the continuous estimation of hand orientation, which by itself is stable based solely on inertial observations. Our inertial sensing simultaneously detects finger pinching to register off-screen selection events, confirms them using a haptic actuator inside our wrist device, and thus allows users to select, grab, and drop virtual content. We compared HOOV’s performance with a camera-based optical motion capture system in two folds. In the first evaluation, participants interacted based on tracking information from the motion capture system to assess the accuracy of their proprioceptive input, whereas in the second, they interacted based on HOOV’s real-time estimations. We found that HOOV’s target-agnostic estimations had a mean tracking error of 7.7 cm, which allowed participants to reliably access virtual objects around their body without first bringing them into focus. We demonstrate several applications that leverage the larger input space HOOV opens up for quick proprioceptive interaction, and conclude by discussing the potential of our technique.

arxiv情報

著者 Paul Streli,Rayan Armani,Yi Fei Cheng,Christian Holz
発行日 2023-04-30 09:19:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.HC, I.2 パーマリンク