要約
インターネット上の大規模な言語モデル(LLM)ベンチマークを公開することは、将来のLLMを汚染するリスク:モデルのトレーニングまたは選択に意図せずに(または意図的に)使用される場合があります。
一般的な緩和は、ベンチマークをプライベートに保ち、参加者に自分のモデルまたは予測を主催者に提出できるようにすることです。
ただし、この戦略には単一の組織への信頼が必要であり、繰り返しのクエリを通じてテストセットの過剰適合を許可します。
この問題を克服するために、LLMSを公然と評価する能力を維持しながら、質問に対する根底にある回答を完全に開示することなく、ベンチマークを公開する方法を提案します。
私たちの主なアイデアは、いくつかの論理的に正しい回答を準備することにより、答えにランダム性を注入することであり、そのうちの1つだけをベンチマークの解決策として含めることです。
これにより、ベンチマークの可能な限り最高の精度、つまりベイズの精度が低下します。
これは、私たちがグラウンドトゥルースを開示しないようにするのに役立つだけでなく、このアプローチもデータの汚染を検出するためのテストを提供します。
原則として、完全に能力のあるモデルでさえベイズの精度を上回るべきではありません。
この期待にもかかわらず、モデルがこの天井を上回る場合、これはデータ汚染の強いシグナルです。
私たちの方法は、さまざまなベンチマーク、モデル、およびトレーニング方法論でデータの汚染を正確に検出できるという実験的証拠を提示します。
要約(オリジナル)
Publishing a large language model (LLM) benchmark on the Internet risks contaminating future LLMs: the benchmark may be unintentionally (or intentionally) used to train or select a model. A common mitigation is to keep the benchmark private and let participants submit their models or predictions to the organizers. However, this strategy will require trust in a single organization and still permits test-set overfitting through repeated queries. To overcome this issue, we propose a way to publish benchmarks without completely disclosing the ground-truth answers to the questions, while still maintaining the ability to openly evaluate LLMs. Our main idea is to inject randomness to the answers by preparing several logically correct answers, and only include one of them as the solution in the benchmark. This reduces the best possible accuracy, i.e., Bayes accuracy, of the benchmark. Not only is this helpful to keep us from disclosing the ground truth, but this approach also offers a test for detecting data contamination. In principle, even fully capable models should not surpass the Bayes accuracy. If a model surpasses this ceiling despite this expectation, this is a strong signal of data contamination. We present experimental evidence that our method can detect data contamination accurately on a wide range of benchmarks, models, and training methodologies.
arxiv情報
著者 | Takashi Ishida,Thanawat Lodkaew,Ikko Yamane |
発行日 | 2025-05-23 16:57:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google