要約
我々は、斬新なビュー合成と詳細な特徴とメトリックの調整を使用した、ビジョンベースのオブジェクト姿勢追跡フレームワークである PixTrack を紹介します。
私たちは SfM ベースの再局在化パラダイムに従い、ニューラル ラディアンス フィールドを使用して追跡対象を標準的に表現します。
私たちの評価は、私たちの方法が、データの注釈や軌跡の平滑化を必要とせずに、単眼の RGB 画像と RGB-D 画像の両方でオブジェクトの高精度、堅牢、ジッターのない 6DoF 姿勢推定を生成することを示しています。
私たちの方法は計算効率も高く、単純な CPU マルチプロセッシングを通じてアルゴリズムを変更することなく、複数のオブジェクトの追跡を簡単に行うことができます。
私たちのコードはhttps://github.com/GiantAI/pixtrackから入手できます。
要約(オリジナル)
We present PixTrack, a vision based object pose tracking framework using novel view synthesis and deep feature-metric alignment. We follow an SfM-based relocalization paradigm where we use a Neural Radiance Field to canonically represent the tracked object. Our evaluations demonstrate that our method produces highly accurate, robust, and jitter-free 6DoF pose estimates of objects in both monocular RGB images and RGB-D images without the need of any data annotation or trajectory smoothing. Our method is also computationally efficient making it easy to have multi-object tracking with no alteration to our algorithm through simple CPU multiprocessing. Our code is available at: https://github.com/GiantAI/pixtrack
arxiv情報
著者 | Prajwal Chidananda,Saurabh Nair,Douglas Lee,Adrian Kaehler |
発行日 | 2024-02-14 09:43:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google