要約
ディープ ビジョン モデルの展開に関しては、信頼性と公平性を保証するために、これらのシステムの動作を説明できる必要があります。
ディープ ラーニング モデルを評価する一般的なアプローチは、対象の属性を含むラベル付きテスト セットを構築し、そのパフォーマンスを評価することです。
ただし、バランスのとれたテスト セット (つまり、すべての重要な特性を均一にサンプリングしたもの) を作成するには、多くの場合、時間と費用がかかり、間違いが発生しやすくなります。
私たちが取り組もうとしている問題は、アノテーション付きのテスト セットなしで、任意の視覚属性に対するディープ ラーニング モデルの感度を評価できるかということです。
この論文では、ゼロショット モデル診断 (ZOOM) が、テスト セットやラベリングを必要とせずに可能である場合について論じています。
テスト セットの必要性を回避するために、システムは生成モデルと CLIP に依存しています。
重要なアイデアは、ユーザーが一連のプロンプト (問題に関連するもの) を選択できるようにすることです。システムは、生成モデルを使用してセマンティック反事実イメージ (つまり、バイナリ分類器の場合は予測を反転させる合成イメージ) を自動的に検索します。
.
方法論の実行可能性を実証するために、複数の視覚的ドメインでいくつかの視覚的タスク (分類、キーポイント検出、およびセグメンテーション) を評価します。
広範な実験により、私たちの方法が反事実の画像を生成し、テストセットを必要とせずにモデル診断のための感度分析を提供できることが実証されています。
要約(オリジナル)
When it comes to deploying deep vision models, the behavior of these systems must be explicable to ensure confidence in their reliability and fairness. A common approach to evaluate deep learning models is to build a labeled test set with attributes of interest and assess how well it performs. However, creating a balanced test set (i.e., one that is uniformly sampled over all the important traits) is often time-consuming, expensive, and prone to mistakes. The question we try to address is: can we evaluate the sensitivity of deep learning models to arbitrary visual attributes without an annotated test set? This paper argues the case that Zero-shot Model Diagnosis (ZOOM) is possible without the need for a test set nor labeling. To avoid the need for test sets, our system relies on a generative model and CLIP. The key idea is enabling the user to select a set of prompts (relevant to the problem) and our system will automatically search for semantic counterfactual images (i.e., synthesized images that flip the prediction in the case of a binary classifier) using the generative model. We evaluate several visual tasks (classification, key-point detection, and segmentation) in multiple visual domains to demonstrate the viability of our methodology. Extensive experiments demonstrate that our method is capable of producing counterfactual images and offering sensitivity analysis for model diagnosis without the need for a test set.
arxiv情報
著者 | Jinqi Luo,Zhaoning Wang,Chen Henry Wu,Dong Huang,Fernando De la Torre |
発行日 | 2023-03-27 17:59:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google