One Object at a Time: Accurate and Robust Structure From Motion for Robots

要約

視線固定ロボットは、固定した物体までの距離と周囲の物体の相対的な位置を、即座に、正確に、かつ頑健に認識することができる。我々は、移動しながら1つの物体を見る行為である固定が、この情報を得るために、3次元空間の幾何学的な規則性を利用する方法を示す。これらの規則性は、動きからの構造ではあまり使われない回転-並進結合を導入している。検証のため、RGBカメラを搭載したフランカ・エミカ・ロボットを使用した。我々は、a)距離推定における誤差は、15cmの距離で5mm以下であることを発見し、b)困難なシナリオの下で障害物を見つけるために相対位置がどのように使用できるかを示す。我々は、正確な距離推定と障害物情報を組み合わせて、予期せぬ障害物に阻まれながらも、未知の大きさの物体を拾い上げることができる反応的なロボット挙動を実現することができる。

要約(オリジナル)

A gaze-fixating robot perceives distance to the fixated object and relative positions of surrounding objects immediately, accurately, and robustly. We show how fixation, which is the act of looking at one object while moving, exploits regularities in the geometry of 3D space to obtain this information. These regularities introduce rotation-translation couplings that are not commonly used in structure from motion. To validate, we use a Franka Emika Robot with an RGB camera. We a) find that error in distance estimate is less than 5 mm at a distance of 15 cm, and b) show how relative position can be used to find obstacles under challenging scenarios. We combine accurate distance estimates and obstacle information into a reactive robot behavior that is able to pick up objects of unknown size, while impeded by unforeseen obstacles.

arxiv情報

著者 Aravind Battaje,Oliver Brock
発行日 2023-01-03 13:07:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク