要約
音楽とサウンド処理の分野では、ピッチ抽出が極めて重要な役割を果たします。
この研究では、アカペラ演奏を含む人間の歌声からピッチを抽出するために調整された畳み込みニューラル ネットワークである「PitchNet」を導入します。
自己相関と深層学習技術を統合することで、PitchNet はピッチ検出の精度を最適化することを目指しています。
合成音声、オペラ録音、および時間伸長された母音で構成されるデータセットにわたる評価により、その有効性が実証されます。
この取り組みにより、音楽設定と音声設定の両方でピッチ抽出を強化する道が開かれます。
要約(オリジナル)
In the domain of music and sound processing, pitch extraction plays a pivotal role. This research introduces ‘PitchNet’, a convolutional neural network tailored for pitch extraction from the human singing voice, including acapella performances. Integrating autocorrelation with deep learning techniques, PitchNet aims to optimize the accuracy of pitch detection. Evaluation across datasets comprising synthetic sounds, opera recordings, and time-stretched vowels demonstrates its efficacy. This work paves the way for enhanced pitch extraction in both music and voice settings.
arxiv情報
著者 | Jeremy Cochoy |
発行日 | 2023-08-14 14:26:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google