SeTAR: Out-of-Distribution Detection with Selective Low-Rank Approximation

要約

ニューラル ネットワークを安全に展開するには、分布外 (OOD) の検出が不可欠です。
既存の CLIP ベースのアプローチは、新しいスコアリング関数または高度な微調整方法を考案することによって OOD 検出を実行します。
この研究では、視覚言語モデルおよび視覚のみのモデルにおける重み行列の選択的低ランク近似を活用する、トレーニング不要の新しい OOD 検出方法である SeTAR を提案します。
SeTAR は、単純な貪欲検索アルゴリズムを使用したモデルの重み行列の事後変更により OOD 検出を強化します。
SeTAR に基づいて、OOD 検出タスクのモデルのパフォーマンスを最適化する微調整拡張機能である SeTAR+FT をさらに提案します。
ImageNet1K および Pascal-VOC ベンチマークの広範な評価により、SeTAR の優れたパフォーマンスが示され、ゼロショットおよび微調整ベースラインと比較して相対的な誤検知率が最大 18.95% および 36.80% 減少します。
アブレーション研究により、SeTAR の有効性、堅牢性、およびさまざまなモデル バックボーンにわたる一般化可能性がさらに検証されます。
私たちの取り組みは、OOD 検出のためのスケーラブルで効率的なソリューションを提供し、この分野で新たな最先端を確立します。

要約(オリジナル)

Out-of-distribution (OOD) detection is crucial for the safe deployment of neural networks. Existing CLIP-based approaches perform OOD detection by devising novel scoring functions or sophisticated fine-tuning methods. In this work, we propose SeTAR, a novel, training-free OOD detection method that leverages selective low-rank approximation of weight matrices in vision-language and vision-only models. SeTAR enhances OOD detection via post-hoc modification of the model’s weight matrices using a simple greedy search algorithm. Based on SeTAR, we further propose SeTAR+FT, a fine-tuning extension optimizing model performance for OOD detection tasks. Extensive evaluations on ImageNet1K and Pascal-VOC benchmarks show SeTAR’s superior performance, reducing the relatively false positive rate by up to 18.95% and 36.80% compared to zero-shot and fine-tuning baselines. Ablation studies further validate SeTAR’s effectiveness, robustness, and generalizability across different model backbones. Our work offers a scalable, efficient solution for OOD detection, setting a new state-of-the-art in this area.

arxiv情報

著者 Yixia Li,Boya Xiong,Guanhua Chen,Yun Chen
発行日 2024-10-29 15:21:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV パーマリンク