Stop Uploading Test Data in Plain Text: Practical Strategies for Mitigating Data Contamination by Evaluation Benchmarks

要約

自動的にクロールされる大規模なコーパスで事前トレーニングされたモデルの台頭により、データ汚染が蔓延し、困難になっています。
クローズド モデルの場合、トレーニング データは企業秘密となり、オープン モデルであっても汚染を検出することは簡単ではありません。
答えが隠されたリーダーボードや、誰にも見られないことが保証されているテスト データを使用するなどの戦略は、費用がかかり、時間の経過とともに脆弱になります。
すべての関係者がクリーンなテストデータを重視し、データ汚染を軽減するために協力すると仮定すると、何ができるでしょうか?
私たちは、違いを生む 3 つの戦略を提案します。(1) 公開されるテスト データは、公開キーで暗号化され、派生配布を禁止するライセンスが付与される必要があります。
(2) クローズド API 保有者にトレーニング除外制御を要求し、それなしでの評価を拒否することでテスト データを保護します。
(3) ソリューションとともにインターネット上に現れるデータを避け、インターネット由来のデータの Web ページ コンテキストをデータとともに公開します。
これらの戦略は実用的であり、データ汚染の防止に効果的です。

要約(オリジナル)

Data contamination has become prevalent and challenging with the rise of models pretrained on large automatically-crawled corpora. For closed models, the training data becomes a trade secret, and even for open models, it is not trivial to detect contamination. Strategies such as leaderboards with hidden answers, or using test data which is guaranteed to be unseen, are expensive and become fragile with time. Assuming that all relevant actors value clean test data and will cooperate to mitigate data contamination, what can be done? We propose three strategies that can make a difference: (1) Test data made public should be encrypted with a public key and licensed to disallow derivative distribution; (2) demand training exclusion controls from closed API holders, and protect your test data by refusing to evaluate without them; (3) avoid data which appears with its solution on the internet, and release the web-page context of internet-derived data along with the data. These strategies are practical and can be effective in preventing data contamination.

arxiv情報

著者 Alon Jacovi,Avi Caciularu,Omer Goldman,Yoav Goldberg
発行日 2023-10-18 13:17:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク