Context-aware Neural Machine Translation for English-Japanese Business Scene Dialogues

要約

機械翻訳の目覚ましい進歩にも関わらず、現在の文レベルのパラダイムは、日本語のような文脈の高い言語を扱う際に課題に直面しています。
この論文では、英語と日本語のビジネス会話の翻訳において、コンテキスト認識によって現在のニューラル機械翻訳 (NMT) モデルのパフォーマンスがどのように向上するのか、また、どのような種類のコンテキストが翻訳を向上させる意味のある情報を提供するのかを検討します。
ビジネス対話には複雑な談話現象が含まれますが、トレーニング リソースが不足しているため、事前トレーニング済みの mBART モデルを採用し、マルチセンテンス対話データを微調整して、さまざまなコンテキストで実験できるようにしました。
私たちは、より大きなコンテキスト サイズの影響を調査し、話者の順番やシーン タイプなどの非感情的な情報をエンコードする新しいコンテキスト トークンを提案します。
私たちは、Conditional Cross-Mutual Information (CXMI) を利用して、モデルがどの程度のコンテキストを使用するかを調査し、CXMI を一般化して、センテンシャルを超えたコンテキストの影響を研究します。
全体として、モデルは先行する文と文外のコンテキスト(コンテキストのサイズに応じて CXMI が増加する)の両方を活用していることがわかり、敬語翻訳についてより焦点を当てた分析を提供します。
翻訳品質に関しては、シーンや話者の情報と組み合わせたソース側のコンテキストの増加により、以前の研究や、BLEU および COMET メトリクスで測定されたコンテキストに依存しないベースラインと比較して、モデルのパフォーマンスが向上しました。

要約(オリジナル)

Despite the remarkable advancements in machine translation, the current sentence-level paradigm faces challenges when dealing with highly-contextual languages like Japanese. In this paper, we explore how context-awareness can improve the performance of the current Neural Machine Translation (NMT) models for English-Japanese business dialogues translation, and what kind of context provides meaningful information to improve translation. As business dialogue involves complex discourse phenomena but offers scarce training resources, we adapted a pretrained mBART model, finetuning on multi-sentence dialogue data, which allows us to experiment with different contexts. We investigate the impact of larger context sizes and propose novel context tokens encoding extra-sentential information, such as speaker turn and scene type. We make use of Conditional Cross-Mutual Information (CXMI) to explore how much of the context the model uses and generalise CXMI to study the impact of the extra-sentential context. Overall, we find that models leverage both preceding sentences and extra-sentential context (with CXMI increasing with context size) and we provide a more focused analysis on honorifics translation. Regarding translation quality, increased source-side context paired with scene and speaker information improves the model performance compared to previous work and our context-agnostic baselines, measured in BLEU and COMET metrics.

arxiv情報

著者 Sumire Honda,Patrick Fernandes,Chrysoula Zerva
発行日 2023-11-20 18:06:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク