要約
ロボットに忍び寄るのはどれくらい簡単ですか?
人が静かにしているときでも、移動時に発せられる付随音だけを使って人を検知できるかどうかを検証します。
私たちは、さまざまな屋内環境で移動する人々の 360 度 RGB データと組み合わせられた、高品質の 4 チャンネル オーディオのロボット データセットを収集します。
音声のみを使用して、近くに移動する人がいるかどうかとその位置を予測するモデルをトレーニングします。
私たちはこの方法をロボットに実装し、受動的な音声センシングのみを使用して静かに移動する 1 人の人物を追跡できるようにします。
デモビデオについては、プロジェクトページをご覧ください: https://sites.google.com/view/unkidnappable-robot
要約(オリジナル)
How easy is it to sneak up on a robot? We examine whether we can detect people using only the incidental sounds they produce as they move, even when they try to be quiet. We collect a robotic dataset of high-quality 4-channel audio paired with 360 degree RGB data of people moving in different indoor settings. We train models that predict if there is a moving person nearby and their location using only audio. We implement our method on a robot, allowing it to track a single person moving quietly with only passive audio sensing. For demonstration videos, see our project page: https://sites.google.com/view/unkidnappable-robot
arxiv情報
著者 | Mengyu Yang,Patrick Grady,Samarth Brahmbhatt,Arun Balajee Vasudevan,Charles C. Kemp,James Hays |
発行日 | 2024-05-09 17:59:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google