TTCDist: Fast Distance Estimation From an Active Monocular Camera Using Time-to-Contact

要約

視覚からの距離推定は、ナビゲーション、マニピュレーション、プランニングなど、無数のロボットアプリケーションの基礎となるものである。我々は、特定の物体を注視する哺乳類の視覚システムに触発されて、時間-接触、加速度、距離に関する2つの新しい制約を開発し、$tau$-制約と$Phi$-制約と呼ぶ。この制約により、アクティブ(移動)カメラは、画像のごく一部だけを使いながら、効率的かつ正確に深度を推定することができる。この制約は、レンジセンシング、センサーフュージョン、ビジュアルサーボに適用可能である。 我々は、2つの実験により、提案された制約を成功裏に検証する。1つ目は、単眼カメラと慣性計測ユニット(IMU)を用いた軌跡推定タスクにおいて、両方の制約を適用する。我々の手法は、一般的な視覚・慣性オドメトリ手法VINS-MonoとROVIOよりそれぞれ25$times$と6.2$times$速く動作しながら、平均軌道誤差を30-70%少なくすることができる。2つ目の実験では、制約条件をフィードバックに使用した場合、結果として得られる閉ループシステムの固有値は、適用される制御信号のスケーリングに対して不変であることを実証した。これらの結果は、$tau$制約と$Phi$制約が、多くのロボットアプリケーションのための堅牢で効率的なアルゴリズムの基礎となる可能性を示していると考えています。

要約(オリジナル)

Distance estimation from vision is fundamental for a myriad of robotic applications such as navigation, manipulation, and planning. Inspired by the mammal’s visual system, which gazes at specific objects, we develop two novel constraints relating time-to-contact, acceleration, and distance that we call the $\tau$-constraint and $\Phi$-constraint. They allow an active (moving) camera to estimate depth efficiently and accurately while using only a small portion of the image. The constraints are applicable to range sensing, sensor fusion, and visual servoing. We successfully validate the proposed constraints with two experiments. The first applies both constraints in a trajectory estimation task with a monocular camera and an Inertial Measurement Unit (IMU). Our methods achieve 30-70% less average trajectory error while running 25$\times$ and 6.2$\times$ faster than the popular Visual-Inertial Odometry methods VINS-Mono and ROVIO respectively. The second experiment demonstrates that when the constraints are used for feedback with efference copies the resulting closed loop system’s eigenvalues are invariant to scaling of the applied control signal. We believe these results indicate the $\tau$ and $\Phi$ constraint’s potential as the basis of robust and efficient algorithms for a multitude of robotic applications.

arxiv情報

著者 Levi Burner,Nitin J. Sanket,Cornelia Fermüller,Yiannis Aloimonos
発行日 2023-03-07 17:24:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク