DogSurf: Quadruped Robot Capable of GRU-based Surface Recognition for Blind Person Navigation

要約

本論文では、視覚障害者の実世界でのナビゲーションを支援するために四足歩行ロボットを使用する新しいアプローチであるDogSurfを紹介する。本論文では、四足歩行ロボットが滑りやすい路面を検知し、音声と触覚フィードバックを用いてユーザに停止タイミングを知らせる方法を紹介する。平均精度99.925%を有する最先端のGRUベースのニューラルネットワークアーキテクチャを、四足歩行ロボットの多クラス路面分類タスクのために提案した。データセットはUnitree Go1 Eduロボットで収集した。データセットとコードはパブリックドメインに公開されている。

要約(オリジナル)

This paper introduces DogSurf – a newapproach of using quadruped robots to help visually impaired people navigate in real world. The presented method allows the quadruped robot to detect slippery surfaces, and to use audio and haptic feedback to inform the user when to stop. A state-of-the-art GRU-based neural network architecture with mean accuracy of 99.925% was proposed for the task of multiclass surface classification for quadruped robots. A dataset was collected on a Unitree Go1 Edu robot. The dataset and code have been posted to the public domain.

arxiv情報

著者 Artem Bazhenov,Vladimir Berman,Sergei Satsevich,Olga Shalopanova,Miguel Altamirano Cabrera,Artem Lykov,Dzmitry Tsetserukou
発行日 2024-02-05 16:24:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.RO パーマリンク