ZeroNLG: Aligning and Autoencoding Domains for Zero-Shot Multimodal and Multilingual Natural Language Generation

要約

自然言語生成 (NLG) は、画像、ビデオ、またはテキストの形式で入力データを受け入れ、対応する自然言語テキストを出力として生成します。
既存の NLG 手法は主に教師ありアプローチを採用しており、結合されたデータとテキストのペアに大きく依存しています。
ただし、多くの対象を絞ったシナリオや英語以外の言語では、十分な量のラベル付きデータが利用できないことがよくあります。
下流タスクのラベル付きデータへの依存を緩和するために、画像からテキスト (画像キャプション)、ビデオからテキスト (
ビデオキャプション)、およびテキストからテキストへの翻訳 (ニューラル機械翻訳) を、統一されたフレームワーク内で英語、中国語、ドイツ語、フランス語で実現します。
ZeroNLG では、トレーニングにラベル付きの下流ペアは必要ありません。
トレーニング中、ZeroNLG は、(i) 共有の共通潜在空間内の対応する座標にさまざまなドメイン (モダリティおよび言語間) を投影します。
(ii) この空間内で対応する座標を揃えることによって、異なるドメインを橋渡しします。
(iii) 教師なし多言語自動エンコーダを構築し、共有潜在空間内の座標が与えられた入力テキストを再構成することでテキストを生成する方法を学習します。
その結果、推論中に、データからテキストへのパイプラインに基づいて、ZeroNLG は、共通空間内の入力データの座標が与えられると、さまざまな言語にまたがるターゲット文を生成できます。
この統合フレームワーク内で、視覚 (画像またはビデオ) データを入力として指定すると、ZeroNLG はゼロショットの視覚キャプションを実行できます。
テキスト文を入力として与えると、ZeroNLG はゼロショット機械翻訳を実行できます。
12 の NLG タスクに関する広範な実験の結果を紹介します。これは、トレーニングにラベル付きの下流ペアを使用せずに、ZeroNLG が高品質で信頼できる出力を生成し、既存のゼロショット手法を大幅に上回るパフォーマンスを示すことを示しています。

要約(オリジナル)

Natural Language Generation (NLG) accepts input data in the form of images, videos, or text and generates corresponding natural language text as output. Existing NLG methods mainly adopt a supervised approach and rely heavily on coupled data-to-text pairs. However, for many targeted scenarios and for non-English languages, sufficient quantities of labeled data are often not available. To relax the dependency on labeled data of downstream tasks, we propose an intuitive and effective zero-shot learning framework, ZeroNLG, which can deal with multiple NLG tasks, including image-to-text (image captioning), video-to-text (video captioning), and text-to-text (neural machine translation), across English, Chinese, German, and French within a unified framework. ZeroNLG does not require any labeled downstream pairs for training. During training, ZeroNLG (i) projects different domains (across modalities and languages) to corresponding coordinates in a shared common latent space; (ii) bridges different domains by aligning their corresponding coordinates in this space; and (iii) builds an unsupervised multilingual auto-encoder to learn to generate text by reconstructing the input text given its coordinate in shared latent space. Consequently, during inference, based on the data-to-text pipeline, ZeroNLG can generate target sentences across different languages given the coordinate of input data in the common space. Within this unified framework, given visual (imaging or video) data as input, ZeroNLG can perform zero-shot visual captioning; given textual sentences as input, ZeroNLG can perform zero-shot machine translation. We present the results of extensive experiments on twelve NLG tasks, showing that, without using any labeled downstream pairs for training, ZeroNLG generates high-quality and believable outputs and significantly outperforms existing zero-shot methods.

arxiv情報

著者 Bang Yang,Fenglin Liu,Yuexian Zou,Xian Wu,Yaowei Wang,David A. Clifton
発行日 2023-12-07 04:04:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV パーマリンク