Reconstruction of Sound Field through Diffusion Models

要約

室内の音場の再構築は、音響制御や拡張 (AR) または仮想現実 (VR) などのいくつかのアプリケーションにとって重要なタスクです。
この論文では、モード周波数範囲に焦点を当てて室内の音場の大きさを再構成するためのデータ駆動型生成モデルを提案します。
拡張領域にわたって音場 (SF-Diff) を再構築するためにトレーニングされた条件付きノイズ除去拡散確率モデル (DDPM) の使用を初めて導入します。
このアーキテクチャは、さまざまな周波数での限られた利用可能な測定値のセットに基づいて条件付けされ、ターゲットの未知の場所に音場を生成するように考案されています。
結果は、SF-Diff が正確な再構成を提供でき、カーネル補間に基づく最先端のベースラインを上回るパフォーマンスを示していることを示しています。

要約(オリジナル)

Reconstructing the sound field in a room is an important task for several applications, such as sound control and augmented (AR) or virtual reality (VR). In this paper, we propose a data-driven generative model for reconstructing the magnitude of acoustic fields in rooms with a focus on the modal frequency range. We introduce, for the first time, the use of a conditional Denoising Diffusion Probabilistic Model (DDPM) trained in order to reconstruct the sound field (SF-Diff) over an extended domain. The architecture is devised in order to be conditioned on a set of limited available measurements at different frequencies and generate the sound field in target, unknown, locations. The results show that SF-Diff is able to provide accurate reconstructions, outperforming a state-of-the-art baseline based on kernel interpolation.

arxiv情報

著者 Federico Miotello,Luca Comanducci,Mirco Pezzoli,Alberto Bernardini,Fabio Antonacci,Augusto Sarti
発行日 2024-02-21 16:15:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SD, eess.AS, eess.SP パーマリンク