Bias in Pruned Vision Models: In-Depth Analysis and Countermeasures

要約

タイトル:プルーニングされた視覚モデルにおけるバイアス:深堀り分析と対策

要約:
– ニューラルネットワークの重要な一部を0に設定するプルーニングは、モデル圧縮の最も一般的な手法の一つである。
– 最近の研究では、プルーニングが出力に偏りを引き起こす可能性があるとの問題が提示されている。
– 本研究では、画像認識用の畳み込みニューラルネットワークにおけるプルーニングと誘発されたバイアスの関係を詳しく調査し、特徴を特定することを目的とする。
– 結果、10%未満のスパースなモデルでも、精度が低下せず、バイアスが大幅に増加しないことがわかった。
– しかし、より高いスパーシティになると、出力の不確実性が高くなり、相関関係も上昇することが見つかり、これがバイアスの増加に直接的に関連付けられる。
– また、圧縮後にバイアスの影響を受けやすいサンプルを特定するための簡単な基準を提案する。

要約(オリジナル)

Pruning – that is, setting a significant subset of the parameters of a neural network to zero – is one of the most popular methods of model compression. Yet, several recent works have raised the issue that pruning may induce or exacerbate bias in the output of the compressed model. Despite existing evidence for this phenomenon, the relationship between neural network pruning and induced bias is not well-understood. In this work, we systematically investigate and characterize this phenomenon in Convolutional Neural Networks for computer vision. First, we show that it is in fact possible to obtain highly-sparse models, e.g. with less than 10% remaining weights, which do not decrease in accuracy nor substantially increase in bias when compared to dense models. At the same time, we also find that, at higher sparsities, pruned models exhibit higher uncertainty in their outputs, as well as increased correlations, which we directly link to increased bias. We propose easy-to-use criteria which, based only on the uncompressed model, establish whether bias will increase with pruning, and identify the samples most susceptible to biased predictions post-compression.

arxiv情報

著者 Eugenia Iofinova,Alexandra Peste,Dan Alistarh
発行日 2023-04-25 07:42:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG パーマリンク