High-quality Data-to-Text Generation for Severely Under-Resourced Languages with Out-of-the-box Large Language Models

要約

リソースが著しく不足している言語に対する NLP メソッドのパフォーマンスは、現時点では、リソースが十分にある言語に対する NLP メソッドの最先端のものに匹敵することは期待できません。
私たちは、アイルランド語、ウェールズ語、ブルトン語、マルタ語のデータからテキストへの生成の例を通じて、事前トレーニング済みの大規模言語モデル (LLM) がこのギャップをどの程度埋めることができるかを調査します。
私たちは、さまざまなシナリオで、これらのリソースが不足している言語と英語で LLM をテストします。
自動評価と人間による評価の両方で測定すると、LLM はリソースが不足している言語の最先端を容易に大幅な差で達成できることがわかりました。
すべての言語において、人間による評価では、最高のシステムに関しては人間と同等のパフォーマンスが示されていますが、BLEU スコアは英語と比べて低下しており、タスク固有ではないシステムを評価するための指標の適切性に疑問が生じています。
全体として、私たちの結果は、リソースが不足している言語のパフォーマンスのギャップを埋める LLM の大きな可能性を示しています。

要約(オリジナル)

The performance of NLP methods for severely under-resourced languages cannot currently hope to match the state of the art in NLP methods for well resourced languages. We explore the extent to which pretrained large language models (LLMs) can bridge this gap, via the example of data-to-text generation for Irish, Welsh, Breton and Maltese. We test LLMs on these under-resourced languages and English, in a range of scenarios. We find that LLMs easily set the state of the art for the under-resourced languages by substantial margins, as measured by both automatic and human evaluations. For all our languages, human evaluation shows on-a-par performance with humans for our best systems, but BLEU scores collapse compared to English, casting doubt on the metric’s suitability for evaluating non-task-specific systems. Overall, our results demonstrate the great potential of LLMs to bridge the performance gap for under-resourced languages.

arxiv情報

著者 Michela Lorandi,Anya Belz
発行日 2024-02-19 16:29:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク