Evading Data Contamination Detection for Language Models is (too) Easy

要約

大規模な言語モデルは広く普及しており、ベンチマークでのパフォーマンスによって、あるモデルに対するユーザーの好みが別のモデルよりも頻繁に決定されます。
ただし、これらのモデルがトレーニングされる膨大な量のデータは、誤って公開ベンチマークの汚染につながり、パフォーマンスの測定が損なわれる可能性があります。
最近開発された汚染検出方法はこの問題に対処しようとしていますが、検出を回避することを目的とした悪意のあるモデルプロバイダーによる意図的な汚染の可能性を見落としています。
この設定は公開ベンチマークの信頼性に疑問を投げかけるため、非常に重要であると私たちは主張します。
この問題をより厳密に研究するために、モデルプロバイダーと汚染検出方法の両方を分類することを提案します。
これにより、現在の検出方法を完全に回避しながらベンチマークのパフォーマンスを大幅に向上させる、シンプルかつ効果的な汚染手法である EAL を悪用した既存の手法の脆弱性が明らかになります。

要約(オリジナル)

Large language models are widespread, with their performance on benchmarks frequently guiding user preferences for one model over another. However, the vast amount of data these models are trained on can inadvertently lead to contamination with public benchmarks, thus compromising performance measurements. While recently developed contamination detection methods try to address this issue, they overlook the possibility of deliberate contamination by malicious model providers aiming to evade detection. We argue that this setting is of crucial importance as it casts doubt on the reliability of public benchmarks. To more rigorously study this issue, we propose a categorization of both model providers and contamination detection methods. This reveals vulnerabilities in existing methods that we exploit with EAL, a simple yet effective contamination technique that significantly inflates benchmark performance while completely evading current detection methods.

arxiv情報

著者 Jasper Dekoninck,Mark Niklas Müller,Maximilian Baader,Marc Fischer,Martin Vechev
発行日 2024-02-12 17:50:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG パーマリンク