要約
この論文では、文法的誤り訂正に関する実験研究を実施し、単一モデル システムの微妙な違いを掘り下げ、アンサンブルおよびランキング方法の効率を比較し、単一モデル システムとしての GEC への大規模言語モデルの適用を検討します。
アンサンブルの一部として、およびランキング方法として。
CoNLL-2014 テストで 72.8、BEA テストで 81.4 という F_0.5 スコアという新しい最先端のパフォーマンスをそれぞれ設定しました。
GEC のさらなる進歩をサポートし、研究の再現性を確保するために、私たちはコード、訓練されたモデル、システムの出力を一般に公開しています。
要約(オリジナル)
In this paper, we carry out experimental research on Grammatical Error Correction, delving into the nuances of single-model systems, comparing the efficiency of ensembling and ranking methods, and exploring the application of large language models to GEC as single-model systems, as parts of ensembles, and as ranking methods. We set new state-of-the-art performance with F_0.5 scores of 72.8 on CoNLL-2014-test and 81.4 on BEA-test, respectively. To support further advancements in GEC and ensure the reproducibility of our research, we make our code, trained models, and systems’ outputs publicly available.
arxiv情報
著者 | Kostiantyn Omelianchuk,Andrii Liubonko,Oleksandr Skurzhanskyi,Artem Chernodub,Oleksandr Korniienko,Igor Samokhin |
発行日 | 2024-04-23 10:57:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google