Out-of-Distribution Detection using Synthetic Data Generation

要約

分散システムの信頼できる展開には、分散および分布外(OOD)入力を区別することが重要です。
ただし、oodデータは通常、収集が不可能または困難であるため、正確なOOD検出のための重要な課題が発生します。
この作業では、大規模な言語モデル(LLMS)の生成機能を活用して高品質の合成OODプロキシを作成する方法を提示し、外部OODデータソースへの依存関係を排除します。
毒性の検出とセンチメント分類などの古典的なテキスト分類タスク、およびRLHFの報酬モデルのトレーニングや不整合世代の検出など、LLMの開発と展開で発生する分類タスクに関する古典的なテキスト分類タスクでの方法の有効性を研究します。
9つのInd-soodデータセットペアとさまざまなモデルサイズに関する広範な実験は、分布内のタスクの高い精度を維持しながら、誤った誤ったレートを劇的に低下させ、ベースライン方法を大幅に上回ることを示しています。

要約(オリジナル)

Distinguishing in- and out-of-distribution (OOD) inputs is crucial for reliable deployment of classification systems. However, OOD data is typically unavailable or difficult to collect, posing a significant challenge for accurate OOD detection. In this work, we present a method that harnesses the generative capabilities of Large Language Models (LLMs) to create high-quality synthetic OOD proxies, eliminating the dependency on any external OOD data source. We study the efficacy of our method on classical text classification tasks such as toxicity detection and sentiment classification as well as classification tasks arising in LLM development and deployment, such as training a reward model for RLHF and detecting misaligned generations. Extensive experiments on nine InD-OOD dataset pairs and various model sizes show that our approach dramatically lowers false positive rates (achieving a perfect zero in some cases) while maintaining high accuracy on in-distribution tasks, outperforming baseline methods by a significant margin.

arxiv情報

著者 Momin Abbas,Muneeza Azmat,Raya Horesh,Mikhail Yurochkin
発行日 2025-02-05 16:22:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク