要約
我々は、ニューラルフィールド表現を用いた物体レベルの高密度SLAMシステムであるvMAPを発表します。各オブジェクトは小さなMLPで表現され、3Dプリオを必要としない効率的で水密なオブジェクトモデリングが可能である。 RGB-Dカメラが事前情報なしにシーンをブラウズすると、vMAPはその場でオブジェクトのインスタンスを検出し、動的にマップに追加する。特に、ベクトル学習により、vMAPは1シーンで50個ものオブジェクトを最適化することができ、5Hzという非常に効率の良い学習速度でマップを更新することができます。我々は、先行するニューラル・フィールドSLAMシステムと比較して、シーンレベルおよびオブジェクトレベルの再構成品質が大幅に改善されたことを実験的に実証しています。
要約(オリジナル)
We present vMAP, an object-level dense SLAM system using neural field representations. Each object is represented by a small MLP, enabling efficient, watertight object modelling without the need for 3D priors. As an RGB-D camera browses a scene with no prior information, vMAP detects object instances on-the-fly, and dynamically adds them to its map. Specifically, thanks to the power of vectorised training, vMAP can optimise as many as 50 individual objects in a single scene, with an extremely efficient training speed of 5Hz map update. We experimentally demonstrate significantly improved scene-level and object-level reconstruction quality compared to prior neural field SLAM systems.
arxiv情報
著者 | Xin Kong,Shikun Liu,Marwan Taher,Andrew J. Davison |
発行日 | 2023-02-03 16:27:34+00:00 |
arxivサイト | arxiv_id(pdf) |