Cross-lingual QA: A Key to Unlocking In-context Cross-lingual Performance

要約

多言語大規模言語モデル (MLLM) は、コンテキスト内学習を通じて重要な言語間機能を実証してきました。
既存のアプローチは通常、ソース言語またはターゲット言語のいずれかで、単一言語の少数ショットの例を構築します。
ただし、文脈内の例全体をターゲット言語に翻訳すると、文脈の完全性が損なわれる可能性があり、文脈が長い文章の場合はコストがかかります。
これに対処するために、質問と回答の部分のみを翻訳するクロスリンガル プロンプト手法であるクロスリンガル QA を導入し、翻訳コストを削減します。
類型的に多様な 4 つの多言語ベンチマークに関する実験では、異言語 QA プロンプトが効果的にモデルを刺激して異言語の知識を引き出し、以前の単言語の少数ショット プロンプト アプローチよりも優れたパフォーマンスを発揮することが示されています。
さらに、オープンソース MLLM に多言語の少数ショットの例をプロンプトすると、モデルの規模が増加するにつれてパフォーマンスが向上することを示します。

要約(オリジナル)

Multilingual large language models (MLLMs) have demonstrated significant cross-lingual capabilities through in-context learning. Existing approaches typically construct monolingual few-shot examples, either in the source or target language. However, translating entire in-context examples into the target language might compromise contextual integrity and be costly in the case of long-context passages. To address this, we introduce Cross-lingual QA, a cross-lingual prompting method that translates only the question and answer parts, thus reducing translation costs. Experiments on four typologically diverse multilingual benchmarks show that Cross-lingual QA prompting effectively stimulates models to elicit their cross-lingual knowledge, outperforming prior monolingual few-shot prompting approaches. Furthermore, we show that prompting open-source MLLMs with cross-lingual few-shot examples enhances performance as the model scale increases.

arxiv情報

著者 Sunkyoung Kim,Dayeon Ki,Yireun Kim,Jinsik Lee
発行日 2024-07-08 17:34:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク