Open Gaze: An Open-Source Implementation Replicating Google’s Eye Tracking Paper

要約

アイトラッキングは、視覚研究、言語分析、ユーザビリティ評価などのさまざまな分野で極めて重要なツールとなっています。
しかし、これまでの調査の大部分は、拡張性に欠ける特殊で高価な視線追跡ハードウェアを使用した広大なデスクトップ ディスプレイに焦点を当てていました。
スマートフォンは広く普及し、重要な用途に使用されているにもかかわらず、スマートフォンの眼球運動パターンに関する洞察は驚くほど少ない。
この原稿では、GooglePaper (ソース コードは独自のままです) によって提案された方法論をエミュレートする、スマートフォン ベースの視線トラッカーのオープンソース実装を紹介します。
私たちは、追加のハードウェアを必要とせずに、GooglePaper の方法論によって達成される精度と同等の精度を達成することに重点を置いています。
機械学習技術の統合を通じて、スマートフォンにネイティブな正確な視線追跡ソリューションを発表します。
私たちのアプローチは、コストが 2 桁高いという特徴を持つ最先端のモバイル アイ トラッカーと同様の精度を示しています。
データセットのウェブサイトへの登録を通じて利用できる膨大な MIT GazeCapture データセットを活用して、眼球運動タスクにおける眼球運動挙動と自然画像観察中の顕著性分析に関する以前の研究からの重要な発見を再現することに成功しました。
さらに、我々は、読解の課題を見極める際にスマートフォンベースの視線追跡が適用できることを強調します。
私たちの発見は、明示的な同意を得た数千人の被験者の参加に対応し、眼球運動研究を大幅に拡大する固有の可能性を示しています。
この拡張性は、視覚研究の進歩を促進するだけでなく、その利点をアクセシビリティの強化や医療アプリケーションなどの分野にも拡張します。

要約(オリジナル)

Eye tracking has been a pivotal tool in diverse fields such as vision research, language analysis, and usability assessment. The majority of prior investigations, however, have concentrated on expansive desktop displays employing specialized, costly eye tracking hardware that lacks scalability. Remarkably little insight exists into ocular movement patterns on smartphones, despite their widespread adoption and significant usage. In this manuscript, we present an open-source implementation of a smartphone-based gaze tracker that emulates the methodology proposed by a GooglePaper (whose source code remains proprietary). Our focus is on attaining accuracy comparable to that attained through the GooglePaper’s methodology, without the necessity for supplementary hardware. Through the integration of machine learning techniques, we unveil an accurate eye tracking solution that is native to smartphones. Our approach demonstrates precision akin to the state-of-the-art mobile eye trackers, which are characterized by a cost that is two orders of magnitude higher. Leveraging the vast MIT GazeCapture dataset, which is available through registration on the dataset’s website, we successfully replicate crucial findings from previous studies concerning ocular motion behavior in oculomotor tasks and saliency analyses during natural image observation. Furthermore, we emphasize the applicability of smartphone-based gaze tracking in discerning reading comprehension challenges. Our findings exhibit the inherent potential to amplify eye movement research by significant proportions, accommodating participation from thousands of subjects with explicit consent. This scalability not only fosters advancements in vision research, but also extends its benefits to domains such as accessibility enhancement and healthcare applications.

arxiv情報

著者 Sushmanth reddy Mereddy,Jyothi Swaroop Reddy,Somnath Sharma
発行日 2023-08-25 17:10:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T10(primary), cs.AI, cs.CV, I.2.1, secondary パーマリンク