Fixation-based Self-calibration for Eye Tracking in VR Headsets

要約

この研究では、仮想現実 (VR) ヘッドセットにおける視線追跡のための新しい自己調整方法を提案します。
提案手法は,ユーザの視点が自由に移動でき,固視中に異なる視点からの注視点(PoR)が物体表面上の狭い領域内に分布しているという仮定に基づいている。
この方法では、まず、I-VDT (速度分散閾値識別) アルゴリズムを 3 次元 (3D) シーンに拡張して、未校正の視線方向の時系列データから固視を検出します。
次に、PoR の分散メトリックの合計を最小化することによって、校正パラメータが最適化されます。
提案された方法は、明示的なユーザー キャリブレーション、画像処理、またはマーカー代替オブジェクトを使用せずに、光軸から視軸までのユーザー依存のオフセットを表す最適なキャリブレーション パラメーターを識別できる可能性があります。
オクルージョンの多い 2 つの VR 環境を歩く 18 人の参加者の視線データに対して、提案手法は 2.1$^\circ$ の精度を達成しましたが、これは平均オフセットよりも大幅に低かったです。
私たちの方法は、3D 環境で平均誤差が 3$^\circ$ 未満である最初の自己校正方法です。
さらに、提案手法の精度は、注視検出または最適化アルゴリズムを改良することにより、最大 1.2$^\circ$ 改善できます。

要約(オリジナル)

This study proposes a novel self-calibration method for eye tracking in a virtual reality (VR) headset. The proposed method is based on the assumptions that the user’s viewpoint can freely move and that the points of regard (PoRs) from different viewpoints are distributed within a small area on an object surface during visual fixation. In the method, fixations are first detected from the time-series data of uncalibrated gaze directions using an extension of the I-VDT (velocity and dispersion threshold identification) algorithm to a three-dimensional (3D) scene. Then, the calibration parameters are optimized by minimizing the sum of a dispersion metrics of the PoRs. The proposed method can potentially identify the optimal calibration parameters representing the user-dependent offset from the optical axis to the visual axis without explicit user calibration, image processing, or marker-substitute objects. For the gaze data of 18 participants walking in two VR environments with many occlusions, the proposed method achieved an accuracy of 2.1$^\circ$, which was significantly lower than the average offset. Our method is the first self-calibration method with an average error lower than 3$^\circ$ in 3D environments. Further, the accuracy of the proposed method can be improved by up to 1.2$^\circ$ by refining the fixation detection or optimization algorithm.

arxiv情報

著者 Ryusei Uramune,Sei Ikeda,Hiroki Ishizuka,Osamu Oshiro
発行日 2023-11-01 09:34:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.HC パーマリンク