ANAVI: Audio Noise Awareness using Visuals of Indoor environments for NAVIgation

要約

私たちは、より静かなロボットの経路計画のためのナビゲーションに屋内のビジュアルを使用した音響騒音認識を提案します。
人間は自分が発する騒音とその周囲への影響を自然に認識していますが、ロボットには現在のところこの認識が欠けています。
ロボットの音声認識を実現する上での重要な課題は、リスナーのいる場所でのロボットの動作がどの程度の音量になるかを推定することです。
音は部屋の形状と材質の構成に依存するため、屋内環境の視覚的観察を使用して音量を受動的に知覚するようにロボットを訓練します。
この目的を達成するために、シミュレートされた住宅内のさまざまなリスナー位置で「インパルス」がどのくらいの大きさに聞こえるかに関するデータを生成し、音響騒音予測器 (ANP) をトレーニングします。
次に、ナビゲーションのためのさまざまなアクションに対応する音響プロファイルを収集します。
ANP とアクション音響を統合し、車輪付きロボット (Hello Robot Strech) と脚付きロボット (Unitree Go2) を使用した実験をデモンストレーションし、これらのロボットが環境の騒音制約に従うようにします。
https://anavi-corl24.github.io/ でコードとデータを参照してください。

要約(オリジナル)

We propose Audio Noise Awareness using Visuals of Indoors for NAVIgation for quieter robot path planning. While humans are naturally aware of the noise they make and its impact on those around them, robots currently lack this awareness. A key challenge in achieving audio awareness for robots is estimating how loud will the robot’s actions be at a listener’s location? Since sound depends upon the geometry and material composition of rooms, we train the robot to passively perceive loudness using visual observations of indoor environments. To this end, we generate data on how loud an ‘impulse’ sounds at different listener locations in simulated homes, and train our Acoustic Noise Predictor (ANP). Next, we collect acoustic profiles corresponding to different actions for navigation. Unifying ANP with action acoustics, we demonstrate experiments with wheeled (Hello Robot Stretch) and legged (Unitree Go2) robots so that these robots adhere to the noise constraints of the environment. See code and data at https://anavi-corl24.github.io/

arxiv情報

著者 Vidhi Jain,Rishi Veerapaneni,Yonatan Bisk
発行日 2024-10-24 17:19:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク