Ties Matter: Meta-Evaluating Modern Metrics with Pairwise Accuracy and Tie Calibration

要約

Kendall のタウは、機械翻訳 (MT) の評価指標が個々の翻訳をどの程度スコアリングしているかをメタ評価するためによく使用されます。
ペアごとのスコア比較に焦点を当てていることは直感的ですが、同点をどのように処理すべきかという問題が生じます。この灰色の領域が文献でさまざまなバリエーションを生み出す動機となっています。
私たちは、最新の MT メタ評価のような設定では、既存の亜種にはタイの処理に起因する弱点があり、状況によってはゲームにさらされる可能性さえあることを実証します。
代わりに、同点を正しく予測したメトリクスのクレジットを与えるペアワイズ精度のバージョンでメトリクスをメタ評価し、同点をメトリクススコアに自動的に導入する同点調整手順と組み合わせて、同点を予測するメトリクスと同点を予測しないメトリクス間の公平な比較を可能にすることを提案します。

私たちは、これらの修正がメトリクスのパフォーマンスのより公平なランキングに基づく評価につながることを主張し、実験的証拠を提供します。

要約(オリジナル)

Kendall’s tau is frequently used to meta-evaluate how well machine translation (MT) evaluation metrics score individual translations. Its focus on pairwise score comparisons is intuitive but raises the question of how ties should be handled, a gray area that has motivated different variants in the literature. We demonstrate that, in settings like modern MT meta-evaluation, existing variants have weaknesses arising from their handling of ties, and in some situations can even be gamed. We propose instead to meta-evaluate metrics with a version of pairwise accuracy that gives metrics credit for correctly predicting ties, in combination with a tie calibration procedure that automatically introduces ties into metric scores, enabling fair comparison between metrics that do and do not predict ties. We argue and provide experimental evidence that these modifications lead to fairer ranking-based assessments of metric performance.

arxiv情報

著者 Daniel Deutsch,George Foster,Markus Freitag
発行日 2023-10-17 16:33:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク