An Intensity and Phase Stacked Analysis of Phase-OTDR System using Deep Transfer Learning and Recurrent Neural Networks

要約

分散型音響センサ(DAS)は、光ファイバに沿って様々な事象の信号を非常に高い空間分解能で記録する有効な装置であり、多くの応用分野で広く使用されています。記録された事象を適切に検出・認識するためには、高い計算能力を持つ高度な信号処理アルゴリズムが重要です。畳み込みニューラルネットワークは、空間情報を抽出する能力が高く、DASのイベント認識アプリケーションに非常に適しています。また、LSTM(Long-Short Term Memory)は、シーケンシャルなデータを処理するのに有効なツールである。本研究では、ピエゾトランスデューサによって光ファイバに加えられた振動を分類するために、これらのニューラルネットワークアーキテクチャの能力と伝達学習を組み合わせた多入力多出力の2段階特徴抽出手法を提案した。まず、Phase-OTDR記録から差分振幅と位相情報を抽出し、時間-空間データマトリックスに格納しました。次に、第1段の特徴抽出器として、密な層を持たない最先端の事前学習済みCNNを用いた。第2段階では、CNNで抽出された特徴をさらにLSTMで解析した。最後に、抽出された特徴を分類するために密な層を用いた。利用したCNNアーキテクチャの効果を観察するために、我々は我々のモデルを5つの最先端の事前学習済みモデル(VGG-16、ResNet-50、DenseNet-121、MobileNet、Inception-v3)と共にテストした。その結果、VGG-16を用いた場合、50回の学習で100%の分類精度が得られ、Phase-OTDRデータセットで最も良い結果を得ることができました。本研究の結果は、LSTMと組み合わせた事前学習済みCNNが、DASアプリケーションにおけるイベント認識操作に有望な時間空間データマトリックスで表される、振幅と位相の差分情報の分析に非常に適していることを示しています。

要約(オリジナル)

Distributed acoustic sensors (DAS) are effective apparatus which are widely used in many application areas for recording signals of various events with very high spatial resolution along the optical fiber. To detect and recognize the recorded events properly, advanced signal processing algorithms with high computational demands are crucial. Convolutional neural networks are highly capable tools for extracting spatial information and very suitable for event recognition applications in DAS. Long-short term memory (LSTM) is an effective instrument for processing sequential data. In this study, we proposed a multi-input multi-output, two stage feature extraction methodology that combines the capabilities of these neural network architectures with transfer learning to classify vibrations applied to an optical fiber by a piezo transducer. First, we extracted the differential amplitude and phase information from the Phase-OTDR recordings and stored them in a temporal-spatial data matrix. Then, we used a state-of-the-art pre-trained CNN without dense layers as a feature extractor in the first stage. In the second stage, we used LSTMs to further analyze the features extracted by the CNN. Finally, we used a dense layer to classify the extracted features. To observe the effect of the utilized CNN architecture, we tested our model with five state-of-the art pre-trained models (VGG-16, ResNet-50, DenseNet-121, MobileNet and Inception-v3). The results show that using the VGG-16 architecture in our framework manages to obtain 100% classification accuracy in 50 trainings and got the best results on our Phase-OTDR dataset. Outcomes of this study indicate that the pre-trained CNNs combined with LSTM are very suitable for the analysis of differential amplitude and phase information, represented in a temporal spatial data matrix which is promising for event recognition operations in DAS applications.

arxiv情報

著者 Ceyhun Efe Kayan,Kivilcim Yuksel Aldogan,Abdurrahman Gumus
発行日 2022-08-08 12:21:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, cs.SD, eess.AS パーマリンク