要約
翻訳の品質向上において大幅な改善が見られたにもかかわらず、状況認識型機械翻訳 (MT) モデルは多くの場合、パフォーマンスが低下しています。
主な理由の 1 つは、コンテキストが長すぎる場合、またはモデルが複雑すぎる場合に、コンテキストから正しい特徴を利用できないことです。
これは、モデルが予測を説明しやすい特徴のみを考慮するエクスプレインアウェイ効果を引き起こす可能性があり、その結果、不正確な変換が発生します。
この問題に対処するために、入力内の共参照特徴を予測することによって翻訳のために行われた決定を説明するモデルを提案します。
既存の MT モデル上で入力表現と翻訳出力表現の両方からコンテキスト特徴を利用することにより、入力相互参照のモデルを構築します。
英語-ドイツ語データセット、英語-ロシア語データセット、および多言語TEDトーク データセットのWMTドキュメントレベル翻訳タスクでメソッドを評価および分析し、他のコンテキスト認識モデルと比較してBLEUスコアが1.0を超える改善を示しました。
要約(オリジナル)
Despite significant improvements in enhancing the quality of translation, context-aware machine translation (MT) models underperform in many cases. One of the main reasons is that they fail to utilize the correct features from context when the context is too long or their models are overly complex. This can lead to the explain-away effect, wherein the models only consider features easier to explain predictions, resulting in inaccurate translations. To address this issue, we propose a model that explains the decisions made for translation by predicting coreference features in the input. We construct a model for input coreference by exploiting contextual features from both the input and translation output representations on top of an existing MT model. We evaluate and analyze our method in the WMT document-level translation task of English-German dataset, the English-Russian dataset, and the multilingual TED talk dataset, demonstrating an improvement of over 1.0 BLEU score when compared with other context-aware models.
arxiv情報
著者 | Huy Hien Vu,Hidetaka Kamigaito,Taro Watanabe |
発行日 | 2024-04-30 12:41:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google