Semi-Supervised Spoken Language Glossification

要約

音声言語の光沢化 (SLG) は、音声言語のテキストを手話の光沢、つまり手話の文字記録に翻訳することを目的としています。
この研究では、SLG 用の $S$emi-$S$supervised $S$poken $L$anguage $G$lossification ($S^3$LG) という名前のフレームワークを紹介します。
SLG における限られた並列データのボトルネックに取り組むために、$S^3$LG は大規模な単一言語音声言語テキストを SLG トレーニングに組み込みます。
提案されたフレームワークは、反復的に注釈を付け、疑似ラベルから学習する自己トレーニング構造に従っています。
手話と話し言葉の語彙的類似性と構文上の違いを考慮して、$S^3$LG は自動アノテーションにルールベースのヒューリスティックアプローチとモデルベースのアプローチの両方を採用しています。
トレーニング中に、これらの相補的な合成データセットをランダムに混合し、それらの違いを特別なトークンでマークします。
合成データの品質が低い可能性があるため、$S^3$LG はさらに一貫性正則化を利用して、合成データ内のノイズの悪影響を軽減します。
$S^3$LG の有効性を実証するために、公開ベンチマークで広範な実験が行われています。
コードは \url{https://github.com/yaohj11/S3LG} で入手できます。

要約(オリジナル)

Spoken language glossification (SLG) aims to translate the spoken language text into the sign language gloss, i.e., a written record of sign language. In this work, we present a framework named $S$emi-$S$upervised $S$poken $L$anguage $G$lossification ($S^3$LG) for SLG. To tackle the bottleneck of limited parallel data in SLG, our $S^3$LG incorporates large-scale monolingual spoken language text into SLG training. The proposed framework follows the self-training structure that iteratively annotates and learns from pseudo labels. Considering the lexical similarity and syntactic difference between sign language and spoken language, our $S^3$LG adopts both the rule-based heuristic and model-based approach for auto-annotation. During training, we randomly mix these complementary synthetic datasets and mark their differences with a special token. As the synthetic data may be less quality, the $S^3$LG further leverages consistency regularization to reduce the negative impact of noise in the synthetic data. Extensive experiments are conducted on public benchmarks to demonstrate the effectiveness of the $S^3$LG. Our code is available at \url{https://github.com/yaohj11/S3LG}.

arxiv情報

著者 Huijie Yao,Wengang Zhou,Hao Zhou,Houqiang Li
発行日 2024-06-12 13:05:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク