要約
タイトル:稀なサブグループにおける画像分類器のシステマティックエラーの特定
要約:
– 画像分類器は平均的なケースでは優れた性能を発揮するが、訓練データに不十分に現れていたセマンティック的に一貫性のあるデータのサブグループにおいては、性能が著しく低下する場合がある。
– これらのシステマティックエラーは、人口少数派に対する公平性に影響を及ぼすだけでなく、ドメインシフトに対する強さや安全性に影響を及ぼすことがある。
– 問題は、これらのサブグループがアノテーションされておらず、その出現が非常に稀である場合に、性能の低いサブグループを特定することである。
– 最近のテキスト-画像モデルの進歩を活用し、サブグループ(「プロンプト」)のテキスト的な説明の空間での検索を行い、ターゲットモデルがプロンプト条件下で合成されたデータに対して性能が低いサブグループを特定する。
– 指数関数的に増加するサブグループに対処するために、組み合わせテストを使用する。
– この手順をPromptAttackと呼び、プロンプト空間における敵対的攻撃として解釈できる。
– PromptAttackでのサブグループのカバレッジと識別可能性を制御された設定で研究し、高い精度でシステマティックエラーを特定することができることがわかった。
– その後、PromptAttackをImageNet分類器に適用し、稀なサブグループで新しいシステマティックエラーを特定した。
要約(オリジナル)
Despite excellent average-case performance of many image classifiers, their performance can substantially deteriorate on semantically coherent subgroups of the data that were under-represented in the training data. These systematic errors can impact both fairness for demographic minority groups as well as robustness and safety under domain shift. A major challenge is to identify such subgroups with subpar performance when the subgroups are not annotated and their occurrence is very rare. We leverage recent advances in text-to-image models and search in the space of textual descriptions of subgroups (‘prompts’) for subgroups where the target model has low performance on the prompt-conditioned synthesized data. To tackle the exponentially growing number of subgroups, we employ combinatorial testing. We denote this procedure as PromptAttack as it can be interpreted as an adversarial attack in a prompt space. We study subgroup coverage and identifiability with PromptAttack in a controlled setting and find that it identifies systematic errors with high accuracy. Thereupon, we apply PromptAttack to ImageNet classifiers and identify novel systematic errors on rare subgroups.
arxiv情報
著者 | Jan Hendrik Metzen,Robin Hutmacher,N. Grace Hua,Valentyn Boreiko,Dan Zhang |
発行日 | 2023-04-12 10:05:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI