Leak, Cheat, Repeat: Data Contamination and Evaluation Malpractices in Closed-Source LLMs

要約

自然言語処理 (NLP) 研究では、大規模言語モデル (LLM) の使用にますます重点が置かれており、最も人気のあるモデルの一部は完全または部分的にクローズドソースです。
特にトレーニング データに関するモデルの詳細にアクセスできないため、研究者の間でデータ汚染に対する懸念が繰り返し生じています。
この問題に対処するためにいくつかの試みがなされてきましたが、それらは事例証拠と試行錯誤に限定されています。
さらに、ユーザーからのデータを使用してモデルが反復的に改善される \emph{間接} データ漏洩の問題も見落としています。
この研究では、データ汚染の観点から、現在最もよく使用されている LLM である OpenAI の GPT-3.5 および GPT-4 を使用して、初めて体系的な作業分析を実施します。
255 件の論文を分析し、OpenAI のデータ使用ポリシーを検討することにより、モデルのリリース後の最初の 1 年間にこれらのモデルに漏洩したデータの量を広範囲に文書化しました。
これらのモデルが 263 のベンチマークからの $\sim$470 万のサンプルに世界中でさらされていると報告します。
同時に、不公平なベースライン比較やベースライン比較の欠落、再現性の問題など、レビュー済みの論文に現れている多数の評価不正行為を文書化します。
私たちは結果を共同プロジェクトとして https://leak-llm.github.io/ に公開し、他の研究者が私たちの取り組みに貢献できるようにします。

要約(オリジナル)

Natural Language Processing (NLP) research is increasingly focusing on the use of Large Language Models (LLMs), with some of the most popular ones being either fully or partially closed-source. The lack of access to model details, especially regarding training data, has repeatedly raised concerns about data contamination among researchers. Several attempts have been made to address this issue, but they are limited to anecdotal evidence and trial and error. Additionally, they overlook the problem of \emph{indirect} data leaking, where models are iteratively improved by using data coming from users. In this work, we conduct the first systematic analysis of work using OpenAI’s GPT-3.5 and GPT-4, the most prominently used LLMs today, in the context of data contamination. By analysing 255 papers and considering OpenAI’s data usage policy, we extensively document the amount of data leaked to these models during the first year after the model’s release. We report that these models have been globally exposed to $\sim$4.7M samples from 263 benchmarks. At the same time, we document a number of evaluation malpractices emerging in the reviewed papers, such as unfair or missing baseline comparisons and reproducibility issues. We release our results as a collaborative project on https://leak-llm.github.io/, where other researchers can contribute to our efforts.

arxiv情報

著者 Simone Balloccu,Patrícia Schmidtová,Mateusz Lango,Ondřej Dušek
発行日 2024-02-06 11:54:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク