Establishing Trustworthy LLM Evaluation via Shortcut Neuron Analysis

要約

大規模な言語モデル(LLMS)の開発は、信頼できる評価に依存します。
ただし、現在のほとんどの評価は、公平性を大幅に損なうデータ汚染の問題を起こしやすいパブリックベンチマークに依存しています。
以前の研究では、汚染に対処するための動的ベンチマークの構築に焦点を当ててきました。
ただし、新しいベンチマークを継続的に構築することは、費用がかかり、周期的です。
この作業では、汚染されたモデル自体のメカニズムを分析することにより、汚染に取り組むことを目指しています。
実験を通じて、汚染されたモデルの過大評価は、トレーニングでショートカットソリューションを取得するパラメーターによる可能性が高いことがわかります。
さらに、比較および因果分析を通じてショートカットニューロンを識別する新しい方法を提案します。
これに基づいて、ショートカットニューロンを抑制するためのショートカットニューロンパッチと呼ばれる評価方法を紹介します。
実験は、汚染の緩和におけるアプローチの有効性を検証します。
さらに、私たちの評価結果は、最近リリースされた信頼できるベンチマークであるMixevalとの強い線形相関を示し、0.95を超えるスピアマン係数($ \ rho $)を達成します。
この高い相関は、私たちの方法がモデルの真の能力を密接に明らかにし、信頼できることを示しています。
さらに実験を行い、さまざまなベンチマークやハイパーパラメーター設定にわたるメソッドの一般化可能性を実証します。
コード:https://github.com/garystack/trustworthy-evaluation

要約(オリジナル)

The development of large language models (LLMs) depends on trustworthy evaluation. However, most current evaluations rely on public benchmarks, which are prone to data contamination issues that significantly compromise fairness. Previous researches have focused on constructing dynamic benchmarks to address contamination. However, continuously building new benchmarks is costly and cyclical. In this work, we aim to tackle contamination by analyzing the mechanisms of contaminated models themselves. Through our experiments, we discover that the overestimation of contaminated models is likely due to parameters acquiring shortcut solutions in training. We further propose a novel method for identifying shortcut neurons through comparative and causal analysis. Building on this, we introduce an evaluation method called shortcut neuron patching to suppress shortcut neurons. Experiments validate the effectiveness of our approach in mitigating contamination. Additionally, our evaluation results exhibit a strong linear correlation with MixEval, a recently released trustworthy benchmark, achieving a Spearman coefficient ($\rho$) exceeding 0.95. This high correlation indicates that our method closely reveals true capabilities of the models and is trustworthy. We conduct further experiments to demonstrate the generalizability of our method across various benchmarks and hyperparameter settings. Code: https://github.com/GaryStack/Trustworthy-Evaluation

arxiv情報

著者 Kejian Zhu,Shangqing Tu,Zhuoran Jin,Lei Hou,Juanzi Li,Jun Zhao
発行日 2025-06-04 16:33:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク