要約
近年、音楽デミックスのための深層学習が大幅に進歩しました。
しかし、これらのニューラル ネットワークを、補聴器、オーディオ ストリームのリミックス、ライブ ショーなどに役立つ可能性のあるリアルタイムの低遅延アプリケーションにどのように適用できるかについては、ほとんど注目されていません。
このペーパーでは、このユースケースに文献にある現在の分離モデルを適応させる際に伴うさまざまな課題を調査します。
その後、ハイブリッド Demucs アーキテクチャに触発されて、スペクトル領域と波形領域の利点を利用するハイブリッド スペクトログラム時間領域オーディオ分離ネットワーク HS-TasNet を提案します。
レイテンシー 23 ミリ秒の場合、HS-TasNet は MusDB テスト セットで全体の信号対歪み比 (SDR) が 4.65 となり、追加のトレーニング データにより 5.55 に増加します。
これらの結果は、リアルタイムの低遅延音楽アプリケーションに対する効率的なデミックスの可能性を示しています。
要約(オリジナル)
There have been significant advances in deep learning for music demixing in recent years. However, there has been little attention given to how these neural networks can be adapted for real-time low-latency applications, which could be helpful for hearing aids, remixing audio streams and live shows. In this paper, we investigate the various challenges involved in adapting current demixing models in the literature for this use case. Subsequently, inspired by the Hybrid Demucs architecture, we propose the Hybrid Spectrogram Time-domain Audio Separation Network HS-TasNet, which utilises the advantages of spectral and waveform domains. For a latency of 23 ms, the HS-TasNet obtains an overall signal-to-distortion ratio (SDR) of 4.65 on the MusDB test set, and increases to 5.55 with additional training data. These results demonstrate the potential of efficient demixing for real-time low-latency music applications.
arxiv情報
著者 | Satvik Venkatesh,Arthur Benilov,Philip Coleman,Frederic Roskam |
発行日 | 2024-02-27 17:26:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google