New Trends for Modern Machine Translation with Large Reasoning Models

要約

大規模な推論モデル(LRMS)、特にチェーンオブテーマの推論(COT)を活用する最近の進歩は、機械翻訳(MT)の新しい可能性を開きました。
このポジションペーパーでは、LRMSは、コンテキスト、文化、言語の理解と推論を必要とする動的な推論タスクとして翻訳を再構成することにより、LLMSベースのMTパラダイムと同様に、従来のニューラルMTとLLMSベースのMTパラダイムを実質的に変換したと主張しています。
3つの基本的な変化を特定します。1)文脈的一貫性。これにより、LRMは曖昧さを解決し、横断的および複雑な文脈、または文脈の欠如をめぐる明示的な推論を通じて談話構造を維持します。
2)文化的意図、モデルがスピーカーの意図、聴衆の期待、および社会言語的規範を推測することにより、モデルが出力を適応できるようにする。
3)自己反省、LRMSは、推論時間中に自己反省を実行して、翻訳の潜在的なエラーを修正することができます。
翻訳におけるLRMの優位性を示す経験的例を紹介することにより、様式化された翻訳、ドキュメントレベルの翻訳、マルチモーダル翻訳など、翻訳のさまざまなシナリオを探ります。
また、自動ピボット翻訳や、翻訳の過剰局在や推論効率などの重要な課題を含む、MTのLRMSの興味深い現象をいくつか特定します。
結論として、LRMSは、テキストコンバーターだけでなく、テキストを超えた意味について推論できる多言語認知エージェントとして再定義すると考えています。
このパラダイムシフトは、LRMSとはるかに広いコンテキストで、従来の翻訳シナリオを超えて翻訳の問題を考えることを思い出させます – その上で達成できること。

要約(オリジナル)

Recent advances in Large Reasoning Models (LRMs), particularly those leveraging Chain-of-Thought reasoning (CoT), have opened brand new possibility for Machine Translation (MT). This position paper argues that LRMs substantially transformed traditional neural MT as well as LLMs-based MT paradigms by reframing translation as a dynamic reasoning task that requires contextual, cultural, and linguistic understanding and reasoning. We identify three foundational shifts: 1) contextual coherence, where LRMs resolve ambiguities and preserve discourse structure through explicit reasoning over cross-sentence and complex context or even lack of context; 2) cultural intentionality, enabling models to adapt outputs by inferring speaker intent, audience expectations, and socio-linguistic norms; 3) self-reflection, LRMs can perform self-reflection during the inference time to correct the potential errors in translation especially extremely noisy cases, showing better robustness compared to simply mapping X->Y translation. We explore various scenarios in translation including stylized translation, document-level translation and multimodal translation by showcasing empirical examples that demonstrate the superiority of LRMs in translation. We also identify several interesting phenomenons for LRMs for MT including auto-pivot translation as well as the critical challenges such as over-localisation in translation and inference efficiency. In conclusion, we think that LRMs redefine translation systems not merely as text converters but as multilingual cognitive agents capable of reasoning about meaning beyond the text. This paradigm shift reminds us to think of problems in translation beyond traditional translation scenarios in a much broader context with LRMs – what we can achieve on top of it.

arxiv情報

著者 Sinuo Liu,Chenyang Lyu,Minghao Wu,Longyue Wang,Weihua Luo,Kaifu Zhang,Zifu Shang
発行日 2025-03-14 12:09:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク