ATDN vSLAM: An all-through Deep Learning-Based Solution for Visual Simultaneous Localization and Mapping

要約

このホワイトペーパーでは、ディープラーニングコンポーネントで構成される視覚的な同時ローカリゼーションおよびマッピング(vSLAM)の新しいソリューションを紹介します。
提案されたアーキテクチャは高度にモジュール化されたフレームワークであり、各コンポーネントがビジョンベースの深層学習ソリューションのそれぞれの分野で最先端の結果を提供します。
このホワイトペーパーでは、これらの個々のビルディングブロックを相乗的に統合することで、機能的で効率的なオールスルーディープニューラル(ATDN)vSLAMシステムを作成できることを示しています。
埋め込み距離損失関数が導入され、それを使用してATDNアーキテクチャがトレーニングされます。
結果として得られたシステムは、KITTIデータセットのサブセットで4.4%の平行移動と0.0176度/mの回転誤差を達成することができました。
提案されたアーキテクチャは、データベースの作成を支援する効率的で低遅延の自動運転(AD)と、自動運転車(AV)制御の基盤に使用できます。

要約(オリジナル)

In this paper, a novel solution is introduced for visual Simultaneous Localization and Mapping (vSLAM) that is built up of Deep Learning components. The proposed architecture is a highly modular framework in which each component offers state of the art results in their respective fields of vision-based deep learning solutions. The paper shows that with the synergic integration of these individual building blocks, a functioning and efficient all-through deep neural (ATDN) vSLAM system can be created. The Embedding Distance Loss function is introduced and using it the ATDN architecture is trained. The resulting system managed to achieve 4.4% translation and 0.0176 deg/m rotational error on a subset of the KITTI dataset. The proposed architecture can be used for efficient and low-latency autonomous driving (AD) aiding database creation as well as a basis for autonomous vehicle (AV) control.

arxiv情報

著者 Mátyás Szántó,György R. Bogár,László Vajta
発行日 2022-06-14 17:18:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク