Exosense: A Vision-Based Scene Understanding System For Exoskeletons

要約

自己平衡外骨格は、運動障害のある人にとって重要な技術です。
現在の課題は人間に準拠したハードウェアと制御に焦点を当てていますが、日常活動でそれらを使用できるようにするには、シーン認識システムが必要です。
この研究では、自己バランスをとる外骨格のための視覚中心のシーン理解システムである Exosense を紹介します。
マルチセンサーの視覚慣性マッピング デバイスと、状態推定、地形マッピング、長期運用のためのナビゲーション スタックを導入します。
実際の屋内シナリオで、人間の脚とワンダークラフトのパーソナル外骨格の両方に取り付けられた Exosense をテストしました。
これにより、典型的な周期的な歩行中にシステムをテストすることができ、また将来的には多層階環境での使用も可能になりました。
Exosense が走行距離 1 メートルあたり約 4 cm のオドメトリ ドリフトを達成し、平均再構築誤差 1 cm 未満で地形マップを構築できることを実証します。
また、以前にマッピングされた環境で視覚的位置特定モードで動作することもでき、外骨格の長期運用に向けた一歩を提供します。

要約(オリジナル)

Self-balancing exoskeletons are a key enabling technology for individuals with mobility impairments. While the current challenges focus on human-compliant hardware and control, unlocking their use for daily activities requires a scene perception system. In this work, we present Exosense, a vision-centric scene understanding system for self-balancing exoskeletons. We introduce a multi-sensor visual-inertial mapping device as well as a navigation stack for state estimation, terrain mapping and long-term operation. We tested Exosense attached to both a human leg and Wandercraft’s Personal Exoskeleton in real-world indoor scenarios. This enabled us to test the system during typical periodic walking gaits, as well as future uses in multi-story environments. We demonstrate that Exosense can achieve an odometry drift of about 4 cm per meter traveled, and construct terrain maps under 1 cm average reconstruction error. It can also work in a visual localization mode in a previously mapped environment, providing a step towards long-term operation of exoskeletons.

arxiv情報

著者 Jianeng Wang,Matias Mattamala,Christina Kassab,Guillaume Burger,Fabio Elnecave,Lintong Zhang,Marine Petriaux,Maurice Fallon
発行日 2024-11-21 12:29:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク