Enhancing Cross-lingual Prompting with Dual Prompt Augmentation

要約

プロンプトは、数ショットのシナリオで有望な結果を示します。
しかし、多言語/言語を越えた問題に対するその強みは十分に活用されていません。
Zhao と Sch\’utze (2021) は、言語を超えたプロンプトが言語を超えた微調整よりも優れていることを提示することで、この方向への最初の探求を行いました。
この論文では、言語を超えたプロンプティングにおける各コンポーネントの効果について実証的調査を行い、ソース言語のトレーニングとターゲット言語の推論の間の矛盾を軽減するのに役立つ、言語に依存しないユニバーサル プロンプティングを導き出します。
これに基づいて、数ショットの異言語プロンプトにおけるデータ不足の問題を軽減することを目的とした、デュアル プロンプト拡張フレームワークである DPA を提案します。
特に、XNLI の場合、クラスあたりわずか 16 個の英語トレーニング例で、私たちの方法は 46.54% を達成し、微調整の 34.99% よりも大幅に優れています。
コードは https://github.com/DAMO-NLP-SG/DPA で入手できます。

要約(オリジナル)

Prompting shows promising results in few-shot scenarios. However, its strength for multilingual/cross-lingual problems has not been fully exploited. Zhao and Sch\’utze (2021) made initial explorations in this direction by presenting that cross-lingual prompting outperforms cross-lingual finetuning. In this paper, we conduct an empirical exploration on the effect of each component in cross-lingual prompting and derive language-agnostic Universal Prompting, which helps alleviate the discrepancies between source-language training and target-language inference. Based on this, we propose DPA, a dual prompt augmentation framework, aiming at relieving the data scarcity issue in few-shot cross-lingual prompting. Notably, for XNLI, our method achieves 46.54% with only 16 English training examples per class, significantly better than 34.99% of finetuning. Our code is available at https://github.com/DAMO-NLP-SG/DPA.

arxiv情報

著者 Meng Zhou,Xin Li,Yue Jiang,Lidong Bing
発行日 2023-05-24 16:03:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク