要約
この作業では、イベントカメラとその他のセンサーを補強学習と組み合わせて、リアルタイムのヒューマン中心のナビゲーションと障害物回避を可能にするロボットナビゲーションコントローラーを紹介します。
固定レートで動作し、モーションブラーとレイテンシに苦しむ従来の画像ベースのコントローラーとは異なり、このアプローチはイベントカメラの非同期性を活用して、柔軟な時間間隔で視覚情報を処理し、適応的な推論と制御を可能にします。
フレームワークは、サンプル効率を改善するための初期模倣学習フェーズと、深い決定論的ポリシーグラデーションを介したイベントベースの知覚、追加の範囲センシング、およびポリシーの最適化を統合します。
シミュレートされた環境で有望な結果が達成され、堅牢なナビゲーション、歩行者のフォロー、および障害物の回避を実証します。
デモビデオはプロジェクトWebサイトで入手できます。
要約(オリジナル)
This work introduces a robot navigation controller that combines event cameras and other sensors with reinforcement learning to enable real-time human-centered navigation and obstacle avoidance. Unlike conventional image-based controllers, which operate at fixed rates and suffer from motion blur and latency, this approach leverages the asynchronous nature of event cameras to process visual information over flexible time intervals, enabling adaptive inference and control. The framework integrates event-based perception, additional range sensing, and policy optimization via Deep Deterministic Policy Gradient, with an initial imitation learning phase to improve sample efficiency. Promising results are achieved in simulated environments, demonstrating robust navigation, pedestrian following, and obstacle avoidance. A demo video is available at the project website.
arxiv情報
著者 | Ignacio Bugueno-Cordova,Javier Ruiz-del-Solar,Rodrigo Verschae |
発行日 | 2025-06-12 15:03:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google