End-to-end Generative Spatial-Temporal Ultrasonic Odometry and Mapping Framework

要約

煙、塵、透明な物体で満たされた環境など、視界の悪い状況で同時位置特定とマッピング (SLAM) を実行することは、長い間困難な作業でした。
カメラや光検出測距 (LiDAR) などのセンサーは、このような条件下では大幅に制限されますが、超音波センサーはより堅牢な代替手段を提供します。
ただし、超音波センサーの低い角度分解能、遅い更新頻度、限られた検出精度が SLAM の障壁となっています。
この研究では、新しいエンドツーエンドの生成超音波 SLAM フレームワークを提案します。
このフレームワークは、重複する視野を持つセンサー アレイを採用し、超音波センサーの本質的に低い角度分解能を利用して、ロボットの動きと連動して空間特徴を暗黙的にエンコードします。
連続するタイム フレーム データは、スライディング ウィンドウ メカニズムを通じて処理され、時間的特徴がキャプチャされます。
時空間的にエンコードされたセンサー データは複数のモジュールを通過して、マップ構築と走行距離測定のための高密度スキャン点群とロボットの姿勢変換を生成します。
この研究の主な貢献には、周囲の環境を時空間的にエンコードする新しい超音波センサー アレイと、超音波センサーの固有の欠陥を克服するエンドツーエンドの生成 SLAM フレームワークが含まれます。
いくつかの実際の実験により、提案されたフレームワークの実現可能性と堅牢性が実証されています。

要約(オリジナル)

Performing simultaneous localization and mapping (SLAM) in low-visibility conditions, such as environments filled with smoke, dust and transparent objets, has long been a challenging task. Sensors like cameras and Light Detection and Ranging (LiDAR) are significantly limited under these conditions, whereas ultrasonic sensors offer a more robust alternative. However, the low angular resolution, slow update frequency, and limited detection accuracy of ultrasonic sensors present barriers for SLAM. In this work, we propose a novel end-to-end generative ultrasonic SLAM framework. This framework employs a sensor array with overlapping fields of view, leveraging the inherently low angular resolution of ultrasonic sensors to implicitly encode spatial features in conjunction with the robot’s motion. Consecutive time frame data is processed through a sliding window mechanism to capture temporal features. The spatiotemporally encoded sensor data is passed through multiple modules to generate dense scan point clouds and robot pose transformations for map construction and odometry. The main contributions of this work include a novel ultrasonic sensor array that spatiotemporally encodes the surrounding environment, and an end-to-end generative SLAM framework that overcomes the inherent defects of ultrasonic sensors. Several real-world experiments demonstrate the feasibility and robustness of the proposed framework.

arxiv情報

著者 Fuhua Jia,Xiaoying Yang,Mengshen Yang,Yang Li,Hang Xu,Adam Rushworth,Salman Ijaz,Heng Yu,Tianxiang Cui
発行日 2024-12-23 07:15:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク