要約
この論文では、実際のオープン環境向けの新しいマルチモーダル知覚システムを紹介します。
提案されたシステムには、組み込み計算プラットフォーム、カメラ、超音波センサー、GPS、および IMU デバイスが含まれています。
従来のフレームワークとは異なり、当社のシステムは複数のセンサーと高度なコンピューター ビジョン アルゴリズムを統合し、ユーザーが確実に屋外を歩くことを支援します。
このシステムは、特定の場所へのナビゲーション、障害物領域の通過、交差点の横断など、さまざまなタスクを効率的に実行できます。
具体的には、超音波センサーや深度カメラも活用し、障害物回避性能を高めています。
経路計画モジュールは、さまざまなフィードバックとユーザーの現在の状態に基づいて、局所的に最適なルートを見つけるように設計されています。
提案されたシステムのパフォーマンスを評価するために、さまざまなシナリオの下でいくつかの実験を設計します。
結果は、このシステムがユーザーが複雑な状況でも効率的かつ自立して歩くのに役立つことを示しています。
要約(オリジナル)
This paper presents a novel multimodal perception system for a real open environment. The proposed system includes an embedded computation platform, cameras, ultrasonic sensors, GPS, and IMU devices. Unlike the traditional frameworks, our system integrates multiple sensors with advanced computer vision algorithms to help users walk outside reliably. The system can efficiently complete various tasks, including navigating to specific locations, passing through obstacle regions, and crossing intersections. Specifically, we also use ultrasonic sensors and depth cameras to enhance obstacle avoidance performance. The path planning module is designed to find the locally optimal route based on various feedback and the user’s current state. To evaluate the performance of the proposed system, we design several experiments under different scenarios. The results show that the system can help users walk efficiently and independently in complex situations.
arxiv情報
著者 | Yuyang Sha |
発行日 | 2024-10-10 13:53:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google