要約
ロボットの知覚における基本的な課題は、センサーのポーズとロボットのポーズの結合です。
これにより、ロボットのポーズを変更してセンサーを認識対象の領域に再配置するアクティブ ビジョンの研究が行われました。
さらに、ジッターなどのエゴモーションや、風などの外的影響が知覚に影響を与え、画像安定化などのソフトウェアで追加の作業が必要になります。
この効果は、通常は軽量で大きなジッターの影響を受けやすいマイクロエアビークルやマイクロロボットで特に顕著ですが、リアルタイムで安定化を実行する計算能力はありません。
ロボットの動きとは無関係にLiDARの視野を変更するための新しいMEMSミラーLiDARシステムを提示します。
私たちの設計は、LiDAR の高価なコンポーネントを小型ロボットの外部に配置できる、小型で低電力のシステムで使用できる可能性があります。
シミュレーションおよび UAV に搭載されたプロトタイプ ハードウェアでのアプローチの有用性を示します。
このLiDARとそのコンパクトな可動スキャン設計により、ロボットとセンサーのジオメトリを分離するメカニズムが提供され、ロボットの認識が簡素化されると考えています。
また、ハードウェアで IMU と外部オドメトリ フィードバックを使用した動き補償の例も示します。
要約(オリジナル)
A fundamental challenge in robot perception is the coupling of the sensor pose and robot pose. This has led to research in active vision where robot pose is changed to reorient the sensor to areas of interest for perception. Further, egomotion such as jitter, and external effects such as wind and others affect perception requiring additional effort in software such as image stabilization. This effect is particularly pronounced in micro-air vehicles and micro-robots who typically are lighter and subject to larger jitter but do not have the computational capability to perform stabilization in real-time. We present a novel microelectromechanical (MEMS) mirror LiDAR system to change the field of view of the LiDAR independent of the robot motion. Our design has the potential for use on small, low-power systems where the expensive components of the LiDAR can be placed external to the small robot. We show the utility of our approach in simulation and on prototype hardware mounted on a UAV. We believe that this LiDAR and its compact movable scanning design provide mechanisms to decouple robot and sensor geometry allowing us to simplify robot perception. We also demonstrate examples of motion compensation using IMU and external odometry feedback in hardware.
arxiv情報
著者 | Yuyang Chen,Dingkang Wang,Lenworth Thomas,Karthik Dantu,Sanjeev J. Koppal |
発行日 | 2023-02-28 06:03:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google