How Good Are Large Language Models at Out-of-Distribution Detection?

要約

分布外 (OOD) 検出は、機械学習 (ML) モデルの信頼性を高める上で重要な役割を果たします。
大規模言語モデル (LLM) の出現は、ML コミュニティ内のパラダイム シフトを引き起こし、多様な自然言語処理タスクにわたってその卓越した機能を実証しました。
既存の研究では、BERT、RoBERTa、GPT-2 などの比較的小規模な Transformer を使用した OOD 検出が調査されていますが、スケール、事前トレーニングの目的、推論パラダイムの大きな違いにより、これらの発見が LLM に適用できるかどうかが疑問視されています。
この論文は、サイズが 7B から 65B までの LLaMA シリーズに焦点を当て、LLM の領域における OOD 検出の先駆的な実証的研究に着手します。
私たちは一般的に使用される OOD 検出器を徹底的に評価し、ゼログレード シナリオと微調整シナリオの両方でそのパフォーマンスを精査します。
特に、以前の識別的分布内微調整を生成的微調整に変更し、LLM の事前トレーニング目標を下流タスクと調整します。
私たちの調査結果は、単純なコサイン距離 OOD 検出器が他の OOD 検出器を上回る優れた有効性を示していることを明らかにしました。
我々は、LLM の埋め込み空間の等方性の性質を強調することで、この現象の興味深い説明を提供します。これは、より小さな BERT ファミリ モデルで観察される異方性の性質とは明らかに対照的です。
新しい洞察により、LLM が OOD データを検出する方法についての理解が深まり、動的環境における LLM の適応性と信頼性が向上しました。

要約(オリジナル)

Out-of-distribution (OOD) detection plays a vital role in enhancing the reliability of machine learning (ML) models. The emergence of large language models (LLMs) has catalyzed a paradigm shift within the ML community, showcasing their exceptional capabilities across diverse natural language processing tasks. While existing research has probed OOD detection with relative small-scale Transformers like BERT, RoBERTa and GPT-2, the stark differences in scales, pre-training objectives, and inference paradigms call into question the applicability of these findings to LLMs. This paper embarks on a pioneering empirical investigation of OOD detection in the domain of LLMs, focusing on LLaMA series ranging from 7B to 65B in size. We thoroughly evaluate commonly-used OOD detectors, scrutinizing their performance in both zero-grad and fine-tuning scenarios. Notably, we alter previous discriminative in-distribution fine-tuning into generative fine-tuning, aligning the pre-training objective of LLMs with downstream tasks. Our findings unveil that a simple cosine distance OOD detector demonstrates superior efficacy, outperforming other OOD detectors. We provide an intriguing explanation for this phenomenon by highlighting the isotropic nature of the embedding spaces of LLMs, which distinctly contrasts with the anisotropic property observed in smaller BERT family models. The new insight enhances our understanding of how LLMs detect OOD data, thereby enhancing their adaptability and reliability in dynamic environments.

arxiv情報

著者 Bo Liu,Liming Zhan,Zexin Lu,Yujie Feng,Lei Xue,Xiao-Ming Wu
発行日 2023-08-23 16:49:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク