Semi-Supervised Learning via Swapped Prediction for Communication Signal Recognition

要約

ディープ ニューラル ネットワークは通信信号認識に広く使用されており、顕著なパフォーマンスを達成していますが、この優位性は通常、教師あり学習に大量のサンプルを使用することに依存します。一方、ラベルがほとんどない小さなデータセットでディープ ニューラル ネットワークをトレーニングすると、一般に過剰学習に陥り、パフォーマンスが低下します。

この目的を達成するために、私たちは、より容易に利用できるラベルなし信号データの大規模なコレクションを効果的に利用して一般化を改善する半教師あり学習 (SSL) 手法を開発します。
提案された方法は主に、スワップ予測と呼ばれる一貫性ベースの正則化の新しい実装に依存しています。これは、強力なデータ拡張を利用してラベルのないサンプルを撹乱し、対応するモデルの予測が元のスケーリングされたクロスエントロピーで最適化されたものに近づくように促します。
対称性が交換された場合の損失。
広範な実験により、私たちの提案した方法が通信信号認識のディープSSLに対して有望な結果を達成できることが示されています。

要約(オリジナル)

Deep neural networks have been widely used in communication signal recognition and achieved remarkable performance, but this superiority typically depends on using massive examples for supervised learning, whereas training a deep neural network on small datasets with few labels generally falls into overfitting, resulting in degenerated performance. To this end, we develop a semi-supervised learning (SSL) method that effectively utilizes a large collection of more readily available unlabeled signal data to improve generalization. The proposed method relies largely on a novel implementation of consistency-based regularization, termed Swapped Prediction, which leverages strong data augmentation to perturb an unlabeled sample and then encourage its corresponding model prediction to be close to its original, optimized with a scaled cross-entropy loss with swapped symmetry. Extensive experiments indicate that our proposed method can achieve a promising result for deep SSL of communication signal recognition.

arxiv情報

著者 Weidong Wang,Hongshu Liao,Lu Gan
発行日 2023-11-14 14:08:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, eess.SP パーマリンク