A Virtual Simulation-Pilot Agent for Training of Air Traffic Controllers

要約

タイトル:航空交通管制官のトレーニングのための仮想シミュレーションパイロットエージェント

要約:

– 航空交通管制官(ATCo)のトレーニングを加速するための新しい仮想シミュレーションパイロットエンジンを提案する。
– このエンジンは、ATCoトレーニーからの話し言葉を受け取り、自動音声認識と理解をします。
– 全体的なパイプラインは以下のサブモジュールから構成されており、高い精度を持つAIツールを使用しています。

1. 音声を単語のシーケンスに変換する自動音声認識(ASR)システム
2. 転写された音声通信を理解する高位の航空交通管制(ATC)に関するエンティティパーサー
3. ダイアログの状況に基づいてパイロットに似た話し声を生成するテキストから音声に変換するサブモジュール

– これは、オープンソースのATCリソースとAIツールに完全に基づいた初めての作品である。
– ASRシステムは、高品質と低品質のATCオーディオで、5.5%と15.9%の誤認率(WER)に達することができます。
– システムの性能を向上させるために、リアルタイム監視データ、演習に関するメタデータ(セクターや滑走路など)、または故意のリードバックエラーを組み込むことができるオプションのサブモジュールを実装しています。
– ASRに監視データを追加することにより、コールサインの検出精度が96%以上になることを示しています。

要約(オリジナル)

In this paper we propose a novel virtual simulation-pilot engine for speeding up air traffic controller (ATCo) training by integrating different state-of-the-art artificial intelligence (AI) based tools. The virtual simulation-pilot engine receives spoken communications from ATCo trainees, and it performs automatic speech recognition and understanding. Thus, it goes beyond only transcribing the communication and can also understand its meaning. The output is subsequently sent to a response generator system, which resembles the spoken read back that pilots give to the ATCo trainees. The overall pipeline is composed of the following submodules: (i) automatic speech recognition (ASR) system that transforms audio into a sequence of words; (ii) high-level air traffic control (ATC) related entity parser that understands the transcribed voice communication; and (iii) a text-to-speech submodule that generates a spoken utterance that resembles a pilot based on the situation of the dialogue. Our system employs state-of-the-art AI-based tools such as Wav2Vec 2.0, Conformer, BERT and Tacotron models. To the best of our knowledge, this is the first work fully based on open-source ATC resources and AI tools. In addition, we have developed a robust and modular system with optional submodules that can enhance the system’s performance by incorporating real-time surveillance data, metadata related to exercises (such as sectors or runways), or even introducing a deliberate read-back error to train ATCo trainees to identify them. Our ASR system can reach as low as 5.5% and 15.9% word error rates (WER) on high and low-quality ATC audio. We also demonstrate that adding surveillance data into the ASR can yield callsign detection accuracy of more than 96%.

arxiv情報

著者 Juan Zuluaga-Gomez,Amrutha Prasad,Iuliia Nigmatulina,Petr Motlicek,Matthias Kleinert
発行日 2023-04-16 17:45:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.HC, eess.AS パーマリンク