Estimating Contamination via Perplexity: Quantifying Memorisation in Language Model Evaluation

要約

大規模な言語モデルの膨大なトレーニング コーパスには意図せずベンチマーク サンプルが含まれることが多く、モデル評価におけるデータ汚染がますます蔓延しています。
したがって、汚染解析は信頼性の高いモデル評価に不可欠な部分となっています。
ただし、既存の汚染分析方法では、トレーニング データ全体にアクセスする必要があり、最近のモデルでは機密であることがよくあります。
これにより、コミュニティがこれらのモデルを厳密に監査し、その機能を正確に評価することができなくなります。
この論文では、完全なトレーニング セットにアクセスせずに汚染を定量化する新しい方法を提案します。これは、混乱を伴う汚染の程度を測定します。
私たちの分析は、一般的な読解力や要約のベンチマークにおいて、最近の基礎モデルが大幅に暗記されているという証拠を提供しており、一方、多肢選択はそれほど汚染されていないように見えます。

要約(オリジナル)

Data contamination in model evaluation is getting increasingly prevalent as the massive training corpora of large language models often unintentionally include benchmark samples. Therefore, contamination analysis has became an inevitable part of reliable model evaluation. However, existing method of contamination analysis requires the access of the entire training data which is often confidential for recent models. This prevent the community to rigorously audit these models and conduct accurate assessment of their capability. In this paper, we propose a novel method to quantify contamination without the access of the full training set, that measure the extent of contamination with perplexity. Our analysis provides evidence of significant memorisation of recent foundation models in popular reading comprehension, summarisation benchmarks, while multiple choice appears less contaminated.

arxiv情報

著者 Yucheng Li
発行日 2023-09-27 01:15:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク