Seeing-Eye Quadruped Navigation with Force Responsive Locomotion Control

要約

盲導犬ロボットは視覚障害者を誘導するための非常に便利なツールであり、本物の盲導犬の入手可能性の低さと高コストを考慮すると、潜在的に大きな社会的影響を生み出す可能性があります。
すでにいくつかの盲導犬システムが実証されていますが、実際の盲導犬の現場で頻繁に発生する、人間からの外部からの引っ張りを考慮したものはありませんでした。
この論文では、強化学習 (RL) を介して外部の引っ張り力に対してロバストな移動コントローラーと、教師あり学習を介して外力推定器を同時にトレーニングします。
コントローラにより安定した歩行を実現し、力推定装置により人間からの外力にロボットが応答することができます。
これらの力は、ロボットが未知の全体的な目標にロボットを導くために使用され、一方、ロボットはローカル プランナーを通じて人間を近くの障害物の周りに誘導します。
シミュレーションとハードウェアでの実験結果は、当社のコントローラーが外力に対して堅牢であり、当社のシーアイシステムが力の方向を正確に検出できることを示しています。
目隠しをした人間を乗せた本物の四足歩行ロボット上で、完全な盲導犬システムをデモンストレーションします。
ビデオはプロジェクト ページでご覧いただけます: https://bu-air-lab.github.io/guide_dog/

要約(オリジナル)

Seeing-eye robots are very useful tools for guiding visually impaired people, potentially producing a huge societal impact given the low availability and high cost of real guide dogs. Although a few seeing-eye robot systems have already been demonstrated, none considered external tugs from humans, which frequently occur in a real guide dog setting. In this paper, we simultaneously train a locomotion controller that is robust to external tugging forces via Reinforcement Learning (RL), and an external force estimator via supervised learning. The controller ensures stable walking, and the force estimator enables the robot to respond to the external forces from the human. These forces are used to guide the robot to the global goal, which is unknown to the robot, while the robot guides the human around nearby obstacles via a local planner. Experimental results in simulation and on hardware show that our controller is robust to external forces, and our seeing-eye system can accurately detect force direction. We demonstrate our full seeing-eye robot system on a real quadruped robot with a blindfolded human. The video can be seen at our project page: https://bu-air-lab.github.io/guide_dog/

arxiv情報

著者 David DeFazio,Eisuke Hirota,Shiqi Zhang
発行日 2023-10-12 17:48:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク