COBias and Debias: Balancing Class Accuracies for Language Models in Inference Time via Nonlinear Integer Programming

要約

大規模な言語モデル(LLM)は優れた知識ベースですが、テキスト分類タスクのすべてのクラスで同様にパフォーマンスを発揮するのに苦労しています。
このペーパーでは、言語モデルの基本的な推論時間問題、つまり不均衡なクラスの精度を調査します。
問題の下にあるのは、他のいくつかを予測していない場合、一部のクラスを過剰に予測する傾向があることを発見しました。
このクラスの精度の不均衡は、より良いトレーニングまたは微調整戦略を介してルートから解決することは困難ですが、推論時間の組み合わせ最適化を介して効果的に緩和できることを示します。
この目的のために、私たちは文脈的奇妙なバイアス(Cobias)として過剰および控えめな問題を概念化して定量化し、非線形整数プログラミング(DNIP)モデルとして債務を提案して、コビアスとコビアの最小化に基づいて学習したクラスの確率を修正します。
LLMパラメーターの更新なしで、全体的な精度を最大化します。
したがって、DNIPモデルには非分化不可能な要素が暗黙的に含まれていることを考慮すると、シミュレートされたアニーリングアルゴリズムを使用してそれを解決します。
異なるプロンプト設定での7つのNLP分類タスクにわたる3つのLLMの広範な評価は、DNIPが同時に、従来のICLアプローチよりも大幅なコビアスの減少(-27%)と精度の改善(+12%)を達成することを示しており、クラスの精度の推論時間緩和を示唆しています。
不均衡は、LLMパフォーマンスを推進するための有望な方向性です。

要約(オリジナル)

Large language models (LLMs) are good knowledge bases but struggle to perform equally well for all classes in text classification tasks. This paper investigates a fundamental inference-time problem in language models: imbalanced class accuracies. We find what’s underneath the issue is a tendency to over-predict some classes while under-predicting some others. This class accuracy imbalance is difficult to solve from the root via better pre-training or fine-tuning strategies, but we show it can be effectively mitigated via inference-time combinatorial optimization. To this end, we conceptualize and quantify the over- and under-prediction issue as the Contextual Oddity Bias (COBias), and propose the Debiasing as Nonlinear Integer Programming (DNIP) model to correct in-context learned class probabilities based on minimizing COBias and maximizing overall accuracy, without LLM parameter update. Considering that the DNIP model implicitly contains non-differentiable elements, we therefore use the simulated annealing algorithm to solve it. Extensive evaluations on three LLMs across seven NLP classification tasks in different prompting settings show that DNIP simultaneously achieves significant COBias reduction (-27%) and accuracy improvement (+12%) over the conventional ICL approach, suggesting that inference-time mitigation of class accuracy imbalance is a promising direction to push forward LLM performances.

arxiv情報

著者 Ruixi Lin,Yang You
発行日 2025-01-29 07:07:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク