Unveiling the Impact of Multimodal Features on Chinese Spelling Correction: From Analysis to Design

要約

中国の綴り補正(CSC)タスクは、文のスペルエラーの検出と修正に焦点を当てています。
現在の研究では、主に2つのアプローチを調査しています。従来のマルチモーダル事前訓練モデルと大規模な言語モデル(LLM)です。
ただし、LLMSはCSCの制限、特に過補正に直面しているため、このタスクの最適です。
既存の研究では、マルチモーダルCSCモデルでの音声およびグラフェミック情報の使用を調査しましたが、これらの機能を効果的に活用して修正パフォーマンスを強化することは依然として課題です。
これに対処するために、マルチモーダル修正の潜在的な改善を特定して、文字使用(\ textBf {macu})実験のマルチモーダル分析を提案します。
経験的調査結果に基づいて、中国のスペル補正のための新しいマルチモーダルモデルである\ textBf {nambert}を紹介します。
ベンチマークデータセットの実験は、SOTAメソッドに対するNambertの優位性を示しています。
また、NambertとLLMSの包括的な比較を実施し、CSCの強みと制限を体系的に評価します。
私たちのコードとモデルは、https://github.com/iiosnail/nambertで入手できます。

要約(オリジナル)

The Chinese Spelling Correction (CSC) task focuses on detecting and correcting spelling errors in sentences. Current research primarily explores two approaches: traditional multimodal pre-trained models and large language models (LLMs). However, LLMs face limitations in CSC, particularly over-correction, making them suboptimal for this task. While existing studies have investigated the use of phonetic and graphemic information in multimodal CSC models, effectively leveraging these features to enhance correction performance remains a challenge. To address this, we propose the Multimodal Analysis for Character Usage (\textbf{MACU}) experiment, identifying potential improvements for multimodal correctison. Based on empirical findings, we introduce \textbf{NamBert}, a novel multimodal model for Chinese spelling correction. Experiments on benchmark datasets demonstrate NamBert’s superiority over SOTA methods. We also conduct a comprehensive comparison between NamBert and LLMs, systematically evaluating their strengths and limitations in CSC. Our code and model are available at https://github.com/iioSnail/NamBert.

arxiv情報

著者 Xiaowu Zhang,Hongfei Zhao,Jingyi Hou,Zhijie Liu
発行日 2025-04-10 11:19:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク