要約
ビジョン言語モデル(VLM)は、視覚的およびテキストのモダリティを調整する上で強力な能力を実証し、マルチモーダルの理解と生成の幅広いアプリケーションを可能にします。
彼らはゼロショットと転送学習シナリオで優れている間、VLMは誤分類の影響を受けやすく、しばしば自信を持っているが間違った予測をもたらします。
この制限は、誤った予測が深刻な結果につながる可能性がある安全性クリティカルなドメインに大きなリスクをもたらします。
この作業では、VLMの予測が信頼できる時期を推定するという重要な課題に対処するために設計されたトレーニングなしのフレームワークであるTrustVLMを紹介します。
VLMSの観察されたモダリティギャップと、特定の概念が画像埋め込みスペースでより明確に表されているという洞察に動機付けられているため、この空間を活用して誤分類の検出を改善する新しい信頼スコアリング機能を提案します。
4つのアーキテクチャと2つのVLMを使用して、17の多様なデータセットでアプローチを厳密に評価し、最先端のパフォーマンスを実証し、AURCで最大51.87%、AUROCで9.14%、FPR95で32.42%の改善があります。
再トレーニングを必要とせずにモデルの信頼性を向上させることにより、TrustVLMは、実際のアプリケーションでVLMSのより安全な展開への道を開きます。
このコードは、https://github.com/epfl-imos/trustvlmで入手できます。
要約(オリジナル)
Vision-Language Models (VLMs) have demonstrated strong capabilities in aligning visual and textual modalities, enabling a wide range of applications in multimodal understanding and generation. While they excel in zero-shot and transfer learning scenarios, VLMs remain susceptible to misclassification, often yielding confident yet incorrect predictions. This limitation poses a significant risk in safety-critical domains, where erroneous predictions can lead to severe consequences. In this work, we introduce TrustVLM, a training-free framework designed to address the critical challenge of estimating when VLM’s predictions can be trusted. Motivated by the observed modality gap in VLMs and the insight that certain concepts are more distinctly represented in the image embedding space, we propose a novel confidence-scoring function that leverages this space to improve misclassification detection. We rigorously evaluate our approach across 17 diverse datasets, employing 4 architectures and 2 VLMs, and demonstrate state-of-the-art performance, with improvements of up to 51.87% in AURC, 9.14% in AUROC, and 32.42% in FPR95 compared to existing baselines. By improving the reliability of the model without requiring retraining, TrustVLM paves the way for safer deployment of VLMs in real-world applications. The code will be available at https://github.com/EPFL-IMOS/TrustVLM.
arxiv情報
著者 | Hao Dong,Moru Liu,Jian Liang,Eleni Chatzi,Olga Fink |
発行日 | 2025-05-29 17:59:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google