The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights

要約

大規模言語モデルの英語パフォーマンスと英語以外のパフォーマンスの間の大きなギャップを埋めることは、大きな課題となります。
これまでの研究の中には、翻訳されたトレーニング データを使用してこのギャップを軽減しようとするものもありますが、最近提案された質問調整アプローチでは、モデルの英語の専門知識を活用して、高価でエラーが発生しやすい翻訳の使用を最小限に抑えて多言語パフォーマンスを向上させます。
この論文では、実行可能コードによる推論と常識に基づく推論における効果を調べることにより、この方法がどの程度広く適用できるかを検討します。
また、プロキシ チューニングを使用して、このアプローチを非常に大規模な言語モデルに効率的に適用する方法も検討します。
多言語推論ベンチマーク mGSM、mSVAMP、および xCSQA の実験結果は、質問アラインメント アプローチを使用して、さまざまな推論シナリオ、モデル ファミリ、サイズにわたって多言語パフォーマンスを向上できることを示しています。
たとえば、LLaMA2 モデルに適用すると、70B モデルであっても、私たちの方法は mGSM で平均 12.2% の精度向上をもたらします。
その成功のメカニズムを理解するために、私たちは表現空間、思考連鎖、翻訳データ スケールを分析します。これにより、質問翻訳トレーニングがどのように LLM 内の言語連携を強化し、作業パターンを形成するのかが明らかになります。

要約(オリジナル)

Bridging the significant gap between large language model’s English and non-English performance presents a great challenge. While some previous studies attempt to mitigate this gap with translated training data, the recently proposed question alignment approach leverages the model’s English expertise to improve multilingual performance with minimum usage of expensive, error-prone translation. In this paper, we explore how broadly this method can be applied by examining its effects in reasoning with executable code and reasoning with common sense. We also explore how to apply this approach efficiently to extremely large language models using proxy-tuning. Experiment results on multilingual reasoning benchmarks mGSM, mSVAMP and xCSQA demonstrate that the question alignment approach can be used to boost multilingual performance across diverse reasoning scenarios, model families, and sizes. For instance, when applied to the LLaMA2 models, our method brings an average accuracy improvements of 12.2% on mGSM even with the 70B model. To understand the mechanism of its success, we analyze representation space, chain-of-thought and translation data scales, which reveals how question translation training strengthens language alignment within LLMs and shapes their working patterns.

arxiv情報

著者 Wenhao Zhu,Shujian Huang,Fei Yuan,Cheng Chen,Jiajun Chen,Alexandra Birch
発行日 2024-05-02 14:49:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク