Multilingual Arbitrage: Optimizing Data Pools to Accelerate Multilingual Progress

要約

合成データの使用は、最近の最先端の進歩において重要な役割を果たしています。
ただし、データを生成するために単一のオラクル教師モデルに過度に依存すると、モデルの崩壊につながり、バイアスの伝播を招くことが示されています。
これらの制限は、すべての言語にわたって優れた普遍的に効果的な教師モデルが存在しないことが重大な課題となる多言語環境において特に顕著です。
この研究では、特定の言語の複数のモデル間のパフォーマンスの変動を利用する「多言語アービトラージ」を導入することで、これらの極端な違いに対処します。
そのために、私たちはサンプルを、さまざまな言語で独自の強みを持つ多様なモデルのプールを通じて戦略的にルーティングします。
最先端のモデルでの徹底的な実験を通じて、私たちの研究は、アービトラージ手法により、単一の教師に依存する場合をはるかに上回るパフォーマンスの驚異的な向上を可能にすることを示唆しています。
特に、最高の単一教師と比較して、多言語アービトラージに切り替えると、全言語の平均勝率が最大 56.5% 向上することが観察されています。
プール内でリソースが最も少ない言語で最も大きな改善が見られます。

要約(オリジナル)

The use of synthetic data has played a critical role in recent state-of-art breakthroughs. However, overly relying on a single oracle teacher model to generate data has been shown to lead to model collapse and invite propagation of biases. These limitations are particularly evident in multilingual settings, where the absence of a universally effective teacher model that excels across all languages presents significant challenges. In this work, we address these extreme difference by introducing ‘multilingual arbitrage’, which capitalizes on performance variations between multiple models for a given language. To do so, we strategically route samples through a diverse pool of models, each with unique strengths in different languages. Across exhaustive experiments on state-of-art models, our work suggests that arbitrage techniques allow for spectacular gains in performance that far outperform relying on a single teacher. In particular, compared to the best single teacher, we observe gains of up to 56.5% improvement in win rates averaged across all languages when switching to multilingual arbitrage. We observe the most significant gains for the least resourced languages in our pool.

arxiv情報

著者 Ayomide Odumakinde,Daniel D’souza,Pat Verga,Beyza Ermis,Sara Hooker
発行日 2024-08-27 11:07:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク