要約
自然言語処理の分野におけるトランスフォーマーの目覚ましい成功は、音声処理コミュニティの関心を呼び起こし、音声シーケンス内の長距離依存関係をモデル化する可能性を探るに至りました。
最近、トランスフォーマーは、自動音声認識、音声合成、音声翻訳、音声パラ言語学、音声強調、音声対話システム、多数のマルチモーダル アプリケーションなど、さまざまな音声関連のドメインで注目を集めています。
この論文では、音声技術内の多様なサブフィールドからの調査研究を橋渡しすることを目的とした包括的な調査を提示します。
音声技術のランドスケープ全体からの調査結果を統合することにより、トランスフォーマーの力を利用してこの分野を前進させることに関心のある研究者に貴重なリソースを提供します。
音声処理でトランスフォーマーが直面する課題を特定すると同時に、これらの問題に対処するための潜在的なソリューションについての洞察も提供します。
要約(オリジナル)
The remarkable success of transformers in the field of natural language processing has sparked the interest of the speech-processing community, leading to an exploration of their potential for modeling long-range dependencies within speech sequences. Recently, transformers have gained prominence across various speech-related domains, including automatic speech recognition, speech synthesis, speech translation, speech para-linguistics, speech enhancement, spoken dialogue systems, and numerous multimodal applications. In this paper, we present a comprehensive survey that aims to bridge research studies from diverse subfields within speech technology. By consolidating findings from across the speech technology landscape, we provide a valuable resource for researchers interested in harnessing the power of transformers to advance the field. We identify the challenges encountered by transformers in speech processing while also offering insights into potential solutions to address these issues.
arxiv情報
著者 | Siddique Latif,Aun Zaidi,Heriberto Cuayahuitl,Fahad Shamshad,Moazzam Shoukat,Junaid Qadir |
発行日 | 2023-03-21 06:00:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google