要約
この作業は、手話理解のために最近提案されたタスクである手話検索に焦点を当てています。
手話検索は、テキストから手話ビデオ (T2V) 検索と手話ビデオからテキスト (V2T) 検索の 2 つのサブタスクで構成されます。
従来のビデオテキスト検索とは異なり、手話ビデオは視覚信号を含むだけでなく、手話も自然言語であるため、それ自体で豊富な意味を持っています。
この特徴を考慮して、手話検索をクロスリンガル検索問題およびビデオテキスト検索タスクとして定式化します。
具体的には、手話と自然言語の両方の言語的特性を考慮し、共同埋め込み空間でテキストと手話ビデオを対比させながら、きめ細かなクロスリンガル (手話から単語へ) マッピングを同時に識別します。
.
このプロセスは、言語間対照学習と呼ばれます。
別の課題は、データ不足の問題によって引き起こされます。手話データセットは、音声認識よりも規模が桁違いに小さいです。
この問題は、大規模な標識ビデオで事前にトレーニングされたドメインに依存しない標識エンコーダーを、疑似ラベリングを介してターゲット ドメインに採用することで軽減されます。
Cross-lingual Contrastive learning または略して CiCo によるドメイン認識手話検索と呼ばれる私たちのフレームワークは、さまざまなデータセットで先駆的な方法を大幅に上回っています。
PHOENIX-2014T データセットの +13.7 T2V および +17.1 V2T R@1 の改善。
コードとモデルは https://github.com/FangyunWei/SLRT で入手できます。
要約(オリジナル)
This work focuses on sign language retrieval-a recently proposed task for sign language understanding. Sign language retrieval consists of two sub-tasks: text-to-sign-video (T2V) retrieval and sign-video-to-text (V2T) retrieval. Different from traditional video-text retrieval, sign language videos, not only contain visual signals but also carry abundant semantic meanings by themselves due to the fact that sign languages are also natural languages. Considering this character, we formulate sign language retrieval as a cross-lingual retrieval problem as well as a video-text retrieval task. Concretely, we take into account the linguistic properties of both sign languages and natural languages, and simultaneously identify the fine-grained cross-lingual (i.e., sign-to-word) mappings while contrasting the texts and the sign videos in a joint embedding space. This process is termed as cross-lingual contrastive learning. Another challenge is raised by the data scarcity issue-sign language datasets are orders of magnitude smaller in scale than that of speech recognition. We alleviate this issue by adopting a domain-agnostic sign encoder pre-trained on large-scale sign videos into the target domain via pseudo-labeling. Our framework, termed as domain-aware sign language retrieval via Cross-lingual Contrastive learning or CiCo for short, outperforms the pioneering method by large margins on various datasets, e.g., +22.4 T2V and +28.0 V2T R@1 improvements on How2Sign dataset, and +13.7 T2V and +17.1 V2T R@1 improvements on PHOENIX-2014T dataset. Code and models are available at: https://github.com/FangyunWei/SLRT.
arxiv情報
著者 | Yiting Cheng,Fangyun Wei,Jianmin Bao,Dong Chen,Wenqiang Zhang |
発行日 | 2023-03-22 17:59:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google