要約
従来、無人航空機 (UAV) は、CMOS ベースのカメラを利用して下界の画像を収集していました。
UAV の最も成功したアプリケーションの 1 つは、一連の画像を統合してより大きなマップを作成するオルソモザイクまたはオルソマップの生成です。
ただし、グローバル シャッターまたはローリング シャッターを備えた CMOS ベースのカメラを使用すると、オルソマップは困難な光条件、モーション ブラー、カメラの下で独立して移動するオブジェクトの高速モーションに対して脆弱になります。
イベント カメラは、ピクセルが明るさの変化時に非同期にトリガーできるため、これらの問題の影響を受けにくくなります。
この作品では、イベント カメラを使用した最初のオルソモザイク アプローチが導入されています。
CMOS カメラのみに依存する既存の方法とは対照的に、私たちのアプローチでは、直射日光や日没後などの厳しい光条件でもマップを生成できます。
要約(オリジナル)
Traditionally, unmanned aerial vehicles (UAVs) rely on CMOS-based cameras to collect images about the world below. One of the most successful applications of UAVs is to generate orthomosaics or orthomaps, in which a series of images are integrated together to develop a larger map. However, the use of CMOS-based cameras with global or rolling shutters mean that orthomaps are vulnerable to challenging light conditions, motion blur, and high-speed motion of independently moving objects under the camera. Event cameras are less sensitive to these issues, as their pixels are able to trigger asynchronously on brightness changes. This work introduces the first orthomosaic approach using event cameras. In contrast to existing methods relying only on CMOS cameras, our approach enables map generation even in challenging light conditions, including direct sunlight and after sunset.
arxiv情報
著者 | Fernando Cladera,Kenneth Chaney,M. Ani Hsieh,Camillo J. Taylor,Vijay Kumar |
発行日 | 2024-09-26 17:57:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google