要約
単眼ビジョンのみを使用して、マップ上にロボットをローカライズできますか?
この研究では、6-DOFロボットの視覚的ローカリゼーションのためのラディアンスフィールドの適応型および微妙な粒子フィルターフレームワークであるNurfを提示します。
Nurfは、ラディアンスフィールドの最近の進歩と視覚的な場所認識を活用しています。
従来の視覚的な場所認識は、データスパース性とアーティファクト誘発性の不正確さの課題を満たしています。
Radianceのフィールド生成された新規ビューを利用することにより、Nurfは視覚的なローカリゼーションのパフォーマンスを向上させ、粗いグローバルローカリゼーションと粒子フィルターの微調整されたポーズ追跡を組み合わせて、連続的かつ正確なローカリゼーションを確保します。
実験的に、我々の方法は既存のモンテカルロベースの方法よりも7倍速く収束し、1メートル以内のローカリゼーション精度を実現し、屋内の視覚的ローカリゼーションのための効率的で回復力のあるソリューションを提供します。
要約(オリジナル)
Can we localize a robot on a map only using monocular vision? This study presents NuRF, an adaptive and nudged particle filter framework in radiance fields for 6-DoF robot visual localization. NuRF leverages recent advancements in radiance fields and visual place recognition. Conventional visual place recognition meets the challenges of data sparsity and artifact-induced inaccuracies. By utilizing radiance field-generated novel views, NuRF enhances visual localization performance and combines coarse global localization with the fine-grained pose tracking of a particle filter, ensuring continuous and precise localization. Experimentally, our method converges 7 times faster than existing Monte Carlo-based methods and achieves localization accuracy within 1 meter, offering an efficient and resilient solution for indoor visual localization.
arxiv情報
著者 | Wugang Meng,Tianfu Wu,Huan Yin,Fumin Zhang |
発行日 | 2025-03-26 04:52:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google