Generative adversarial networks with physical sound field priors

要約

この論文では、敵対的生成ネットワーク (GAN) を使用した音場の時空間再構築のための深層学習ベースのアプローチを紹介します。
この方法は平面波ベースを利用し、室内の圧力の基礎となる統計分布を学習して、限られた数の測定値から音場を正確に再構築します。
このメソッドのパフォーマンスは、2 つの確立されたデータセットを使用して評価され、最先端のメソッドと比較されます。
結果は、このモデルが、特に高周波数範囲および測定領域を超えて外挿する場合に、精度とエネルギー保持の点で改善された再構成パフォーマンスを達成できることを示しています。
さらに、提案された方法は、パフォーマンスを犠牲にすることなく、さまざまな数の測定位置と構成を処理できます。
この結果は、このアプローチが、音響問題に先立って物理的な情報を得ることができる生成モデルを使用した音場再構築への有望なアプローチを提供することを示唆しています。

要約(オリジナル)

This paper presents a deep learning-based approach for the spatio-temporal reconstruction of sound fields using Generative Adversarial Networks (GANs). The method utilises a plane wave basis and learns the underlying statistical distributions of pressure in rooms to accurately reconstruct sound fields from a limited number of measurements. The performance of the method is evaluated using two established datasets and compared to state-of-the-art methods. The results show that the model is able to achieve an improved reconstruction performance in terms of accuracy and energy retention, particularly in the high-frequency range and when extrapolating beyond the measurement region. Furthermore, the proposed method can handle a varying number of measurement positions and configurations without sacrificing performance. The results suggest that this approach provides a promising approach to sound field reconstruction using generative models that allow for a physically informed prior to acoustics problems.

arxiv情報

著者 Xenofon Karakonstantis,Efren Fernandez-Grande
発行日 2023-08-01 10:11:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 65C60, cs.AI, eess.AS, I.2.10 パーマリンク