Estimating the Probabilities of Rare Outputs in Language Models

要約

低確率推定の問題を検討します。機械学習モデルと正式に指定された入力分布を考慮して、ランダムサンプリングによって推定できない場合でも、モデルの出力のバイナリプロパティの確率を推定するにはどうすればよいですか?
この問題は、最悪のケースのパフォーマンスを改善する必要性によって動機付けられています。これは、どの分布シフトがより可能性が高くなる可能性があります。
小型トランス言語モデルからのArgmaxサンプリングのコンテキストで、低確率推定を研究します。
2つのタイプの方法を比較します。重要性サンプリング。これには、まれな出力を生じさせる入力を検索することと、モデルのロジットに適合する確率分布を外挿する活性化の外挿が比較されます。
サンプルが活性化の外挿を上回ると、どちらも素朴なサンプリングを上回ることがわかります。
最後に、望ましくない行動の確率推定値を最小化する方法を説明し、最悪のパフォーマンスについてより強力な保証を提供するために、低確率推定の新しい方法が必要であると主張します。

要約(オリジナル)

We consider the problem of low probability estimation: given a machine learning model and a formally-specified input distribution, how can we estimate the probability of a binary property of the model’s output, even when that probability is too small to estimate by random sampling? This problem is motivated by the need to improve worst-case performance, which distribution shift can make much more likely. We study low probability estimation in the context of argmax sampling from small transformer language models. We compare two types of methods: importance sampling, which involves searching for inputs giving rise to the rare output, and activation extrapolation, which involves extrapolating a probability distribution fit to the model’s logits. We find that importance sampling outperforms activation extrapolation, but both outperform naive sampling. Finally, we explain how minimizing the probability estimate of an undesirable behavior generalizes adversarial training, and argue that new methods for low probability estimation are needed to provide stronger guarantees about worst-case performance.

arxiv情報

著者 Gabriel Wu,Jacob Hilton
発行日 2025-02-06 18:43:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク