要約
この論文では、ヘッドマウント カメラから収集された最初の自己中心的なデータセットである HEADS-UP を紹介します。これは、視覚障害者支援システムの軌道予測用に特別に設計されています。
視覚障害のある人の人口が増加するにつれ、動的障害物との衝突の可能性についてリアルタイムで警告を発するインテリジェントな支援ツールの必要性が重要になっています。
これらのシステムは、歩行者などの移動物体の軌道を予測できるアルゴリズムを利用して、タイムリーに危険警告を発します。
しかし、既存のデータセットでは、視覚障害者の視点から必要な情報を捉えることができません。
このギャップに対処するために、HEADS-UP は、この状況における軌道予測に焦点を当てた新しいデータセットを提供します。
このデータセットを活用して、動的環境における視覚障害者と歩行者の間の衝突リスクを評価するための半局所的な軌道予測アプローチを提案します。
視覚障害者(エゴエージェント)と歩行者の両方の軌跡を個別に予測する従来の方法とは異なり、私たちのアプローチは、カメラの座標系を回転させたバージョンであるセミローカル座標系内で動作し、予測プロセスを容易にします。
HEADS-UP データセットでメソッドを検証し、提案されたソリューションを ROS に実装し、ユーザー調査を通じて NVIDIA Jetson GPU でリアルタイム テストを実行します。
データセット評価とライブテストの両方の結果は、私たちのアプローチの堅牢性と効率性を示しています。
要約(オリジナル)
In this paper, we introduce HEADS-UP, the first egocentric dataset collected from head-mounted cameras, designed specifically for trajectory prediction in blind assistance systems. With the growing population of blind and visually impaired individuals, the need for intelligent assistive tools that provide real-time warnings about potential collisions with dynamic obstacles is becoming critical. These systems rely on algorithms capable of predicting the trajectories of moving objects, such as pedestrians, to issue timely hazard alerts. However, existing datasets fail to capture the necessary information from the perspective of a blind individual. To address this gap, HEADS-UP offers a novel dataset focused on trajectory prediction in this context. Leveraging this dataset, we propose a semi-local trajectory prediction approach to assess collision risks between blind individuals and pedestrians in dynamic environments. Unlike conventional methods that separately predict the trajectories of both the blind individual (ego agent) and pedestrians, our approach operates within a semi-local coordinate system, a rotated version of the camera’s coordinate system, facilitating the prediction process. We validate our method on the HEADS-UP dataset and implement the proposed solution in ROS, performing real-time tests on an NVIDIA Jetson GPU through a user study. Results from both dataset evaluations and live tests demonstrate the robustness and efficiency of our approach.
arxiv情報
著者 | Yasaman Haghighi,Celine Demonsant,Panagiotis Chalimourdas,Maryam Tavasoli Naeini,Jhon Kevin Munoz,Bladimir Bacca,Silvan Suter,Matthieu Gani,Alexandre Alahi |
発行日 | 2024-09-30 14:26:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google