要約
RGB-Dセンサーは、放射線や雨などの外部摂動に敏感であるため、オープンフィールド環境下で動作するという複数の課題に直面している。単眼カメラを使って物体の3D位置を認識するという課題に対しては、複数の研究がアプローチしている。しかし、これらの研究のほとんどは、主にディープラーニングベースのソリューションに焦点を当てており、複雑で、データ駆動型であり、予測が困難である。そこで我々は、拡張カルマンフィルタ(EKF)を搭載した最良視点推定器(BVE)と名付けられたガウス視点推定器を用いて、3Dオブジェクトの位置を予測する問題にアプローチすることを目指す。このアルゴリズムはタスクにおいて効率的であることが証明され、最大平均ユークリッド誤差は約32mmに達した。実験は、人工ガウスノイズを使用し、MATLABで展開され、評価された。将来的には、このシステムをロボットシステムに実装することを目指している。
要約(オリジナル)
RGB-D sensors face multiple challenges operating under open-field environments because of their sensitivity to external perturbations such as radiation or rain. Multiple works are approaching the challenge of perceiving the 3D position of objects using monocular cameras. However, most of these works focus mainly on deep learning-based solutions, which are complex, data-driven, and difficult to predict. So, we aim to approach the problem of predicting the 3D objects’ position using a Gaussian viewpoint estimator named best viewpoint estimator (BVE) powered by an extended Kalman filter (EKF). The algorithm proved efficient on the tasks and reached a maximum average Euclidean error of about 32 mm. The experiments were deployed and evaluated in MATLAB using artificial Gaussian noise. Future work aims to implement the system in a robotic system.
arxiv情報
著者 | Sandro Costa Magalhães,António Paulo Moreira,Filipe Neves dos Santos,Jorge Dias |
発行日 | 2024-10-03 22:13:56+00:00 |
arxivサイト | arxiv_id(pdf) |