The Case for Evaluating Multimodal Translation Models on Text Datasets

要約

優れた評価フレームワークでは、1) 翻訳タスクを支援する視覚情報の使用、2) テキストのみの機械翻訳で行われるような複雑な文を翻訳する能力を測定することによって、マルチモーダル機械翻訳 (MMT) モデルを評価する必要があります。
ただし、MMT の最新の作業は Multi30k テスト セットに対して評価されており、これらのプロパティは測定されません。
つまり、MMT モデルによる視覚情報の使用は、Multi30k テスト セットの結果から直接示すことはできず、Multi30k の文は、一般的なテキストのみの機械翻訳が使用する複雑な文とは対照的に、画像キャプション、つまり短い説明的な文です。
モデルが評価されます。
したがって、MMT モデルは、1) MMT モデルによる視覚情報の使用を測定する CoMMuTE 評価フレームワーク、2) 複雑な文に対する翻訳パフォーマンスを評価するテキストのみの WMT ニュース翻訳タスク テスト セット、および
3) Multi30k テスト セット。実際の MMT データセットに対する MMT モデルのパフォーマンスを測定します。
最後に、Multi30k データセットのみに対してトレーニングされた最近の MMT モデルを、提案された評価フレームワークに対して評価し、最近のテキストのみの MT モデルと比較して、テキストのみのテスト セットに対するパフォーマンスが劇的に低下することを実証します。

要約(オリジナル)

A good evaluation framework should evaluate multimodal machine translation (MMT) models by measuring 1) their use of visual information to aid in the translation task and 2) their ability to translate complex sentences such as done for text-only machine translation. However, most current work in MMT is evaluated against the Multi30k testing sets, which do not measure these properties. Namely, the use of visual information by the MMT model cannot be shown directly from the Multi30k test set results and the sentences in Multi30k are are image captions, i.e., short, descriptive sentences, as opposed to complex sentences that typical text-only machine translation models are evaluated against. Therefore, we propose that MMT models be evaluated using 1) the CoMMuTE evaluation framework, which measures the use of visual information by MMT models, 2) the text-only WMT news translation task test sets, which evaluates translation performance against complex sentences, and 3) the Multi30k test sets, for measuring MMT model performance against a real MMT dataset. Finally, we evaluate recent MMT models trained solely against the Multi30k dataset against our proposed evaluation framework and demonstrate the dramatic drop performance against text-only testing sets compared to recent text-only MT models.

arxiv情報

著者 Vipin Vijayan,Braeden Bowen,Scott Grigsby,Timothy Anderson,Jeremy Gwinnup
発行日 2024-03-05 14:49:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク