要約
私たちの生活の中で自律的な航空ロボットが一般的になっています。
実践的な航空ロボットコースは、成長する市場の需要を満たすために、次世代の労働力を訓練する上で極めて重要です。
このような効率的で説得力のあるコースは、信頼できるテストベッドに依存します。
このホワイトペーパーでは、航空ロボットコースのオープンソースの知覚中心のハードウェア(HITL)フォトリアリスティックテストフレームワークであるVizflytを紹介します。
3Dガウスのスプラッティングを使用して、外部のローカリゼーションシステムからのポーズを活用して、リアルタイムおよびフォトリアリックな視覚センサーを幻覚させます。
これにより、障害物に衝突するリスクなしに、航空ロボットでの自律アルゴリズムのストレスのないテストが可能になります。
100Hz以上のシステムアップデートレートを達成します。
最後に、実践的な空中ロボットコースを提供する過去の経験に基づいて、将来のVizflytに基づいた新しいオープンソースとオープンハードウェアカリキュラムを提案します。
実際のHITL実験でさまざまなコースプロジェクトでフレームワークをテストし、そのようなシステムの有効性とその大きな潜在的なユースケースを示す結果を提示します。
コード、データセット、ハードウェアガイド、デモビデオはhttps://pear.wpi.edu/research/vizflyt.htmlで入手できます。
要約(オリジナル)
Autonomous aerial robots are becoming commonplace in our lives. Hands-on aerial robotics courses are pivotal in training the next-generation workforce to meet the growing market demands. Such an efficient and compelling course depends on a reliable testbed. In this paper, we present VizFlyt, an open-source perception-centric Hardware-In-The-Loop (HITL) photorealistic testing framework for aerial robotics courses. We utilize pose from an external localization system to hallucinate real-time and photorealistic visual sensors using 3D Gaussian Splatting. This enables stress-free testing of autonomy algorithms on aerial robots without the risk of crashing into obstacles. We achieve over 100Hz of system update rate. Lastly, we build upon our past experiences of offering hands-on aerial robotics courses and propose a new open-source and open-hardware curriculum based on VizFlyt for the future. We test our framework on various course projects in real-world HITL experiments and present the results showing the efficacy of such a system and its large potential use cases. Code, datasets, hardware guides and demo videos are available at https://pear.wpi.edu/research/vizflyt.html
arxiv情報
著者 | Kushagra Srivastava,Rutwik Kulkarni,Manoj Velmurugan,Nitin J. Sanket |
発行日 | 2025-04-01 22:39:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google