要約
ビジョンベースのオブジェクト追跡は、特に障害物回避のために、自律航空航空ナビゲーションを実現するための重要なコンポーネントです。
生物学的ビジョンに触発された神経形成動的視覚センサー(DVS)またはイベントカメラは、従来のフレームベースのカメラに有望な代替品を提供します。
これらのカメラは、挑戦的な照明条件であっても、高ダイナミックレンジとモーションブラーに対する抵抗を伴う、非同期的に強度の変化を検出できます。
スパイクニューラルネットワーク(SNN)は、これらのイベントベースの信号を効率的かつ非同期に処理するためにますます使用されています。
一方、物理ベースの人工知能(AI)は、物理モデリングを介してシステムレベルの知識をニューラルネットワークに組み込む手段を提供します。
これにより、堅牢性、エネルギー効率が向上し、象徴的な説明可能性が提供されます。
この作業では、自律ドローンナビゲーションのための神経形態ナビゲーションフレームワークを提示します。
焦点は、衝突を避けながら、移動する門を検出してナビゲートすることです。
イベントカメラを使用して、監視されていない方法で浅いSNNアーキテクチャを介して移動オブジェクトを検出します。
これは、深度入力で訓練された最適な飛行時間を予測する軽量エネルギーを認識している物理誘導ニューラルネットワーク(PGNN)と組み合わされ、最小のエネルギーパスを生成します。
このシステムは、Gazebo Simulatorに実装され、ロボットオペレーティングシステム(ROS)ミドルウェアで構築されたセンサー融合視力視力から計画するニューロシンボリックフレームワークを統合します。
この作業は、特に低遅延の意思決定のために、イベントベースのビジョンをエネルギー効率の高い自律的ナビゲーションのための物理的誘導計画と統合する将来の可能性を強調しています。
要約(オリジナル)
Vision-based object tracking is a critical component for achieving autonomous aerial navigation, particularly for obstacle avoidance. Neuromorphic Dynamic Vision Sensors (DVS) or event cameras, inspired by biological vision, offer a promising alternative to conventional frame-based cameras. These cameras can detect changes in intensity asynchronously, even in challenging lighting conditions, with a high dynamic range and resistance to motion blur. Spiking neural networks (SNNs) are increasingly used to process these event-based signals efficiently and asynchronously. Meanwhile, physics-based artificial intelligence (AI) provides a means to incorporate system-level knowledge into neural networks via physical modeling. This enhances robustness, energy efficiency, and provides symbolic explainability. In this work, we present a neuromorphic navigation framework for autonomous drone navigation. The focus is on detecting and navigating through moving gates while avoiding collisions. We use event cameras for detecting moving objects through a shallow SNN architecture in an unsupervised manner. This is combined with a lightweight energy-aware physics-guided neural network (PgNN) trained with depth inputs to predict optimal flight times, generating near-minimum energy paths. The system is implemented in the Gazebo simulator and integrates a sensor-fused vision-to-planning neuro-symbolic framework built with the Robot Operating System (ROS) middleware. This work highlights the future potential of integrating event-based vision with physics-guided planning for energy-efficient autonomous navigation, particularly for low-latency decision-making.
arxiv情報
著者 | Sourav Sanyal,Amogh Joshi,Manish Nagaraj,Rohan Kumar Manna,Kaushik Roy |
発行日 | 2025-04-23 17:55:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google