AV-RIR: Audio-Visual Room Impulse Response Estimation

要約

環境の音響特性を捉える室内インパルス応答 (RIR) の正確な推定は、音声処理や AR/VR アプリケーションにとって重要です。
我々は、与えられた残響音声信号とそれに対応する環境の視覚的手がかりからRIRを正確に推定するための新しいマルチモーダルマルチタスク学習アプローチであるAV-RIRを提案します。
AV-RIR は、環境の幾何学形状と材料特性を効果的にキャプチャし、マルチタスク学習を使用することで補助タスクとして音声残響を解決する、新しいニューラル コーデック ベースのアーキテクチャに基づいて構築されています。
また、マテリアル情報を視覚的な手がかりに拡張する Geo-Mat 機能と、画像から RIR への検索を介して推定 RIR 内の後期残響成分を 86% 改善する CRIP も提案します。
経験的な結果は、AV-RIR が、RIR 推定におけるさまざまな音響指標全体で 36% ~ 63% の改善を達成することにより、以前の音声のみおよび視覚のみのアプローチよりも定量的に優れていることを示しています。
さらに、人間の評価においても高い嗜好スコアを実現します。
補助的な利点として、AV-RIR からの残響除去音声は、さまざまな音声言語処理タスクにおいて最先端の音声と同等のパフォーマンスを示し、現実世界の AVSpeech データセットの残響時間エラー スコアを上回ります。
合成残響音声と強化音声の両方の定性的な例は、https://www.youtube.com/watch?v=tTsKhviukAE で見つけることができます。

要約(オリジナル)

Accurate estimation of Room Impulse Response (RIR), which captures an environment’s acoustic properties, is important for speech processing and AR/VR applications. We propose AV-RIR, a novel multi-modal multi-task learning approach to accurately estimate the RIR from a given reverberant speech signal and the visual cues of its corresponding environment. AV-RIR builds on a novel neural codec-based architecture that effectively captures environment geometry and materials properties and solves speech dereverberation as an auxiliary task by using multi-task learning. We also propose Geo-Mat features that augment material information into visual cues and CRIP that improves late reverberation components in the estimated RIR via image-to-RIR retrieval by 86%. Empirical results show that AV-RIR quantitatively outperforms previous audio-only and visual-only approaches by achieving 36% – 63% improvement across various acoustic metrics in RIR estimation. Additionally, it also achieves higher preference scores in human evaluation. As an auxiliary benefit, dereverbed speech from AV-RIR shows competitive performance with the state-of-the-art in various spoken language processing tasks and outperforms reverberation time error score in the real-world AVSpeech dataset. Qualitative examples of both synthesized reverberant speech and enhanced speech can be found at https://www.youtube.com/watch?v=tTsKhviukAE.

arxiv情報

著者 Anton Ratnarajah,Sreyan Ghosh,Sonal Kumar,Purva Chiniya,Dinesh Manocha
発行日 2024-04-23 19:36:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.SD パーマリンク