LoRCoN-LO: Long-term Recurrent Convolutional Network-based LiDAR Odometry

要約

長期再帰畳み込みネットワーク (LRCN) 構造を利用する LoRCoN-LO と呼ばれる深層学習ベースの LiDAR オドメトリ推定方法を提案します。
LRCN 層は、CNN 層と LSTM 層の両方を使用して、空間情報と時間情報を一度に処理できる構造です。
この機能は、空間情報を含む点群を使用するため、連続的なロボットの動きを予測するのに適しています。
そのため、LRCN 層を使用して LoRCoN-LO モデルを構築し、このモデルを通じてロボットの姿勢を予測しました。
パフォーマンス検証のために、公開データセット (KITTI) を利用した実験を行いました。
実験の結果は、LoRCoN-LO がデータセットに正確なオドメトリ予測を表示することを示しています。
コードは https://github.com/donghwijung/LoRCoN-LO で入手できます。

要約(オリジナル)

We propose a deep learning-based LiDAR odometry estimation method called LoRCoN-LO that utilizes the long-term recurrent convolutional network (LRCN) structure. The LRCN layer is a structure that can process spatial and temporal information at once by using both CNN and LSTM layers. This feature is suitable for predicting continuous robot movements as it uses point clouds that contain spatial information. Therefore, we built a LoRCoN-LO model using the LRCN layer, and predicted the pose of the robot through this model. For performance verification, we conducted experiments exploiting a public dataset (KITTI). The results of the experiment show that LoRCoN-LO displays accurate odometry prediction in the dataset. The code is available at https://github.com/donghwijung/LoRCoN-LO.

arxiv情報

著者 Donghwi Jung,Jae-Kyung Cho,Younghwa Jung,Soohyun Shin,Seong-Woo Kim
発行日 2023-03-21 13:52:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク