Exploring the Feasibility of Multilingual Grammatical Error Correction with a Single LLM up to 9B parameters: A Comparative Study of 17 Models

要約

最近の言語モデルは、さまざまな言語関連のタスクをうまく解決でき、多くの言語で述べられている入力を理解しています。
この論文では、すべての言語で単一のモデルを使用してテキストを修正するために単一のモデルを使用する場合、英語、ドイツ語、イタリア語、スウェーデン語で述べられたテキストの文法問題を修正するために使用される17の一般的なモデルのパフォーマンスを探ります。
これらのモデルによって生成された出力を分析し、変化を小さく保ちながら文法エラーの数を減らすことに焦点を当てています。
描かれた結論は、これらのモデル間でどのような問題が発生し、どのモデルが多言語の文法エラー補正タスクに推奨できるかを理解するのに役立ちます。
4つの言語すべての文法正しさを改善する6つのモデルをリストし、現在、Gemma 9Bが考慮される言語で最高のパフォーマンスを発揮していることを示しています。

要約(オリジナル)

Recent language models can successfully solve various language-related tasks, and many understand inputs stated in different languages. In this paper, we explore the performance of 17 popular models used to correct grammatical issues in texts stated in English, German, Italian, and Swedish when using a single model to correct texts in all those languages. We analyze the outputs generated by these models, focusing on decreasing the number of grammatical errors while keeping the changes small. The conclusions drawn help us understand what problems occur among those models and which models can be recommended for multilingual grammatical error correction tasks. We list six models that improve grammatical correctness in all four languages and show that Gemma 9B is currently the best performing one for the languages considered.

arxiv情報

著者 Dawid Wisniewski,Antoni Solarski,Artur Nowakowski
発行日 2025-05-09 12:35:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク