要約
複雑な環境内でのロボットのナビゲーションには、堅牢で安全な操作を保証するための正確な状態推定と位置特定が必要です。
ロボット ヘビのような歩行移動ロボットの場合、従来のセンシング方法では複数の埋め込みセンサーまたはマーカーが必要であり、複雑さ、コストの増加、障害点の増加につながります。
あるいは、外部カメラを環境に展開するのは非常に簡単で、このカメラの画像からマーカーを使用せずにロボットの状態を推定することは、シンプルかつコスト効率の高い理想的なソリューションです。
ただし、このプロセスの課題は、カメラが外部キャリブレーションなしで移動したり、移動中 (ドローンがロボットを追跡するなど) に移動したりする可能性がある大規模な環境下でロボットを追跡することにあります。
このシナリオ自体は、ノイズの多い観察下でロボットのポーズを単一画像で再構成するという複雑な課題を抱えています。
この論文では、単一のカメラから歩行移動ロボットを追跡する問題に取り組みます。
この方法では、微分可能レンダリングとカルマン フィルターを組み合わせます。
この相乗効果により、ロボットの関節角度と姿勢を同時に推定できると同時に、後でロバストな制御に使用できる状態の不確実性も提供されます。
静止カメラと非静止 (移動) カメラの両方でヘビのようなロボットに対するアプローチの有効性を実証し、構造化シナリオと非構造化シナリオの両方でそのパフォーマンスを検証します。
達成された結果は、ロボットのベース位置の位置特定における平均誤差が 0.05 m、関節状態の推定における平均誤差が 6 度であることを示しています。
私たちは、この新しい技術により、将来の探索および捜索救助ミッションにおけるロボットの機動性とナビゲーションの強化の可能性が開かれると信じています。
要約(オリジナル)
Robot navigation within complex environments requires precise state estimation and localization to ensure robust and safe operations. For ambulating mobile robots like robot snakes, traditional methods for sensing require multiple embedded sensors or markers, leading to increased complexity, cost, and increased points of failure. Alternatively, deploying an external camera in the environment is very easy to do, and marker-less state estimation of the robot from this camera’s images is an ideal solution: both simple and cost-effective. However, the challenge in this process is in tracking the robot under larger environments where the cameras may be moved around without extrinsic calibration, or maybe when in motion (e.g., a drone following the robot). The scenario itself presents a complex challenge: single-image reconstruction of robot poses under noisy observations. In this paper, we address the problem of tracking ambulatory mobile robots from a single camera. The method combines differentiable rendering with the Kalman filter. This synergy allows for simultaneous estimation of the robot’s joint angle and pose while also providing state uncertainty which could be used later on for robust control. We demonstrate the efficacy of our approach on a snake-like robot in both stationary and non-stationary (moving) cameras, validating its performance in both structured and unstructured scenarios. The results achieved show an average error of 0.05 m in localizing the robot’s base position and 6 degrees in joint state estimation. We believe this novel technique opens up possibilities for enhanced robot mobility and navigation in future exploratory and search-and-rescue missions.
arxiv情報
著者 | Jingpei Lu,Florian Richter,Shan Lin,Michael C. Yip |
発行日 | 2023-09-27 14:42:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google