要約
広い屋内スペースはレイアウトが複雑で、移動が困難です。
病院、大学、ショッピング複合施設などの屋内スペースには、テキストや記号の形式でマルチモーダルな情報が伝送されます。
したがって、視覚障害者 (BVI) の人々がそのような空間を自力で移動することは困難です。
屋内環境では通常、GPS が拒否されます。
したがって、位置特定には Bluetooth ベース、WiFi ベース、または範囲ベースの方法が使用されます。
これらの方法はセットアップコストが高く、精度が低く、場合によっては特別なセンシング装置が必要になります。
我々は、位置特定のための視覚基準マーカーを使用して、BVI の個人の屋内ナビゲーションのための視覚支援 (VA) システムを提案します。
基準マーカーを使用した視覚的位置特定のための最先端 (SOTA) アプローチでは、狭い視野を持つ固定カメラが使用されます。
これらのアプローチは、マーカーが見えなくなると追跡を停止します。
マーカー追跡を強化するために視野を 360{\deg} に拡大するパンチルト タレットに取り付けられたカメラを採用しています。
したがって、マッピングとナビゲーションに必要なマーカーは少なくなります。
提案された VA システムの有効性は、RMSE (二乗平均平方根誤差)、ADNN (最近傍までの平均距離)、および ATE (絶対軌道誤差) の 3 つの指標で測定されます。
当社のシステムは、Hector-SLAM、ORB-SLAM3、および UcoSLAM よりも優れたパフォーマンスを発揮します。
提案されたシステムは、ORB-SLAM3 および UcoSLAM の $\pm12cm$ および $\pm10cm$ と比較して、$\pm8cm$ 以内の位置特定精度を達成します。
要約(オリジナル)
Large indoor spaces have complex layouts making them difficult to navigate. Indoor spaces in hospitals, universities, shopping complexes, etc., carry multi-modal information in the form of text and symbols. Hence, it is difficult for Blind and Visually Impaired (BVI) people to independently navigate such spaces. Indoor environments are usually GPS-denied; therefore, Bluetooth-based, WiFi-based, or Range-based methods are used for localization. These methods have high setup costs, lesser accuracy, and sometimes need special sensing equipment. We propose a Visual Assist (VA) system for the indoor navigation of BVI individuals using visual Fiducial markers for localization. State-of-the-art (SOTA) approaches for visual localization using Fiducial markers use fixed cameras having a narrow field of view. These approaches stop tracking the markers when they are out of sight. We employ a Pan-Tilt turret-mounted camera which enhances the field of view to 360{\deg} for enhanced marker tracking. We, therefore, need fewer markers for mapping and navigation. The efficacy of the proposed VA system is measured on three metrics, i.e., RMSE (Root Mean Square Error), ADNN (Average Distance to Nearest Neighbours), and ATE (Absolute Trajectory Error). Our system outperforms Hector-SLAM, ORB-SLAM3, and UcoSLAM. The proposed system achieves localization accuracy within $\pm8cm$ compared to $\pm12cm$ and $\pm10cm$ for ORB-SLAM3 and UcoSLAM, respectively.
arxiv情報
著者 | Dharmateja Adapa,Virendra Singh Shekhawat,Avinash Gautam,Sudeept Mohan |
発行日 | 2023-10-16 11:24:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google