要約
大規模な言語モデル(LLMS)の出現は、特に十分な並列コーパス、言語ツール、および計算インフラストラクチャを欠く低リソース言語とドメインの場合、機械翻訳(MT)の景観を大幅に再形成しました。
この調査では、MTのLLMSを活用する最近の進捗状況の包括的な概要を示しています。
リソース不足の設定への効果的な適応を可能にする、少数のショットプロンプト、横断的転送、パラメーター効率の高い微調整などの手法を分析します。
このペーパーでは、逆翻訳や語彙増強を含むLLMを使用した合成データ生成戦略も調査しています。
さらに、LLMベースの翻訳を、多様な言語ペアにわたって従来のエンコーダデコーダーモデルと比較し、それぞれの強みと制限を強調します。
幻覚、評価の一貫性、継承されたバイアスなどの永続的な課題について説明しながら、翻訳の品質のために新たなLLM駆動型メトリックを評価します。
この調査では、大規模な生成モデルの時代に堅牢で包括的でスケーラブルなMTシステムを構築するための将来の方向性を概説しています。
要約(オリジナル)
The advent of Large Language Models (LLMs) has significantly reshaped the landscape of machine translation (MT), particularly for low-resource languages and domains that lack sufficient parallel corpora, linguistic tools, and computational infrastructure. This survey presents a comprehensive overview of recent progress in leveraging LLMs for MT. We analyze techniques such as few-shot prompting, cross-lingual transfer, and parameter-efficient fine-tuning that enable effective adaptation to under-resourced settings. The paper also explores synthetic data generation strategies using LLMs, including back-translation and lexical augmentation. Additionally, we compare LLM-based translation with traditional encoder-decoder models across diverse language pairs, highlighting the strengths and limitations of each. We discuss persistent challenges such as hallucinations, evaluation inconsistencies, and inherited biases while also evaluating emerging LLM-driven metrics for translation quality. This survey offers practical insights and outlines future directions for building robust, inclusive, and scalable MT systems in the era of large-scale generative models.
arxiv情報
著者 | Baban Gain,Dibyanayan Bandyopadhyay,Asif Ekbal |
発行日 | 2025-04-02 17:26:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google