Hindi as a Second Language: Improving Visually Grounded Speech with Semantically Similar Samples

要約

この作業の目的は、多言語の観点から視覚的に接地された音声モデル (VGS) の学習を調査することです。
通常、バイリンガル VGS モデルは、両方の言語から同数の音声キャプションを使用してトレーニングされます。
ただし、実際には、利用可能な音声キャプションの言語間で不均衡が生じる可能性があります。
この作業における私たちの主な貢献は、リソースの少ない言語のパフォーマンスを向上させるために、バイリンガルの視覚的に根拠のある音声モデルでリソースの多い言語の力を活用することです。
高リソース言語の知識を低リソース言語に抽出する 2 つの方法を紹介します。(1) 事前にトレーニングされた強力な高リソース言語エンコーダーを組み込む方法と、(2) 意味的に類似した音声キャプションを使用する方法です。
私たちの実験では、これら 2 つのアプローチを効果的に組み合わせることで、リソースの少ない言語がクロスモーダル検索タスクの単一言語およびバイリンガル対応のパフォーマンスを上回ることができることが示されています。

要約(オリジナル)

The objective of this work is to explore the learning of visually grounded speech models (VGS) from multilingual perspective. Bilingual VGS models are generally trained with an equal number of spoken captions from both languages. However, in reality, there can be an imbalance among the languages for the available spoken captions. Our key contribution in this work is to leverage the power of a high-resource language in a bilingual visually grounded speech model to improve the performance of a low-resource language. We introduce two methods to distill the knowledge of high-resource language into low-resource languages: (1) incorporating a strong pre-trained high-resource language encoder and (2) using semantically similar spoken captions. Our experiments show that combining these two approaches effectively enables the low-resource language to surpass the performances of monolingual and bilingual counterparts for cross-modal retrieval tasks.

arxiv情報

著者 Hyeonggon Ryu,Arda Senocak,In So Kweon,Joon Son Chung
発行日 2023-03-30 16:34:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV, cs.SD, eess.AS パーマリンク