NeRFoot: Robot-Footprint Estimation for Image-Based Visual Servoing

要約

本論文では、静止CCTVカメラによる画像ベースビジュアルサーボ(IBVS)によって制御される移動ロボットの動作領域を拡張するためのニューラル放射輝度場(NeRF)モデルの有用性を検討する。NeRFを3D表現として用いることで、ロボットの足跡を幾何学的に推定し、CNNベースのネットワークを学習させて、ロボットの外観のみから足跡をオンラインで抽出することができる。結果として得られるフットプリントは、ロボット全体のバウンディングボックスよりもタイトな境界となり、ロボットのコントローラがより最適な軌道を規定し、安全な動作フロア領域を拡大することを可能にする。

要約(オリジナル)

This paper investigates the utility of Neural Radiance Fields (NeRF) models in extending the regions of operation of a mobile robot, controlled by Image-Based Visual Servoing (IBVS) via static CCTV cameras. Using NeRF as a 3D-representation prior, the robot’s footprint may be extrapolated geometrically and used to train a CNN-based network to extract it online from the robot’s appearance alone. The resulting footprint results in a tighter bound than a robot-wide bounding box, allowing the robot’s controller to prescribe more optimal trajectories and expand its safe operational floor area.

arxiv情報

著者 Daoxin Zhong,Luke Robinson,Daniele De Martini
発行日 2024-08-02 13:12:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク