要約
将来のインテリジェント車両は、周囲を理解し、安全に移動できなければなりません。
カメラベースの車両システムは、GNSS に依存しない SLAM およびビジュアル オドメトリの低レベルおよび高レベルのランドマークとして、オブジェクトだけでなくキーポイントも使用できます。
この目的を達成するために、私たちは、YOLOv5 と SuperPoint を組み合わせて、リアルタイム対応かつ正確な単一のフォワードパス ネットワークを作成することで、画像内のキーポイントとオブジェクトを同時に検出する畳み込みニューラル ネットワーク モデルである YOLOPoint を提案します。
共有バックボーンと軽量ネットワーク構造を使用することにより、YOLOPoint は HPatches と KITTI ベンチマークの両方で競争力のあるパフォーマンスを発揮できます。
要約(オリジナル)
Intelligent vehicles of the future must be capable of understanding and navigating safely through their surroundings. Camera-based vehicle systems can use keypoints as well as objects as low- and high-level landmarks for GNSS-independent SLAM and visual odometry. To this end we propose YOLOPoint, a convolutional neural network model that simultaneously detects keypoints and objects in an image by combining YOLOv5 and SuperPoint to create a single forward-pass network that is both real-time capable and accurate. By using a shared backbone and a light-weight network structure, YOLOPoint is able to perform competitively on both the HPatches and KITTI benchmarks.
arxiv情報
著者 | Anton Backhaus,Thorsten Luettel,Hans-Joachim Wuensche |
発行日 | 2024-02-06 13:31:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google