YOLOPoint Joint Keypoint and Object Detection

要約

将来のインテリジェント車両は、周囲を理解し、安全に移動できなければなりません。
カメラベースの車両システムは、GNSS に依存しない SLAM およびビジュアル オドメトリの低レベルおよび高レベルのランドマークとして、オブジェクトだけでなくキーポイントも使用できます。
この目的を達成するために、私たちは、YOLOv5 と SuperPoint を組み合わせて、リアルタイム対応かつ正確な単一のフォワードパス ネットワークを作成することで、画像内のキーポイントとオブジェクトを同時に検出する畳み込みニューラル ネットワーク モデルである YOLOPoint を提案します。
共有バックボーンと軽量ネットワーク構造を使用することにより、YOLOPoint は HPatches と KITTI ベンチマークの両方で競争力のあるパフォーマンスを発揮できます。

要約(オリジナル)

Intelligent vehicles of the future must be capable of understanding and navigating safely through their surroundings. Camera-based vehicle systems can use keypoints as well as objects as low- and high-level landmarks for GNSS-independent SLAM and visual odometry. To this end we propose YOLOPoint, a convolutional neural network model that simultaneously detects keypoints and objects in an image by combining YOLOv5 and SuperPoint to create a single forward-pass network that is both real-time capable and accurate. By using a shared backbone and a light-weight network structure, YOLOPoint is able to perform competitively on both the HPatches and KITTI benchmarks.

arxiv情報

著者 Anton Backhaus,Thorsten Luettel,Hans-Joachim Wuensche
発行日 2024-02-06 13:31:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク