Identifying Bias in Deep Neural Networks Using Image Transforms

要約

CNN は、過去 20 年間で最も一般的に使用される計算ツールの 1 つになりました。
CNN の主な欠点の 1 つは、CNN が「ブラック ボックス」として機能することです。ユーザーは画像データがどのように分析されるかを必ずしも知ることができないため、トレーニング済み CNN の有効性をテストするには経験的評価に依存する必要があります。
これは、ニューラル ネットワークのパフォーマンス評価に影響を与える隠れたバイアスにつながる可能性がありますが、特定するのは困難です。
ここでは、一般的で広く使用されているベンチマーク データセットにおけるそのような隠れたバイアスの例について説明し、標準的なパフォーマンス評価指標に影響を与える可能性のあるデータセットのバイアスを特定するための手法を提案します。
データセットの偏りを特定する効果的なアプローチの 1 つは、元の画像の空白の背景部分のみを使用して画像分類を実行することです。
ただし、状況によっては、画像内の空白の背景が利用できないため、バイアスから前景または文脈情報を分離することがさらに困難になります。
これを克服するために、画像から背景情報をトリミングすることなくデータセットの偏りを特定する方法を提案します。
この方法は、フーリエ変換、ウェーブレット変換、メディアン フィルター、およびそれらの組み合わせを含む、いくつかの画像変換を元の画像に適用することに基づいています。
これらの変換は、CNN が画像を分類するために使用する背景バイアス情報を復元するために適用されました。
この変換は、体系的な背景バイアスに影響を与えるのとは異なる方法で、文脈上の視覚情報に影響を与えます。
したがって、この方法は、元の画像の空白の背景からサブ画像部分を分離する必要がなくても、コンテキスト情報とバイアスを区別し、背景バイアスの存在を警告できます。
実験で使用したコードは公開されています。

要約(オリジナル)

CNNs have become one of the most commonly used computational tool in the past two decades. One of the primary downsides of CNNs is that they work as a “black box’, where the user cannot necessarily know how the image data are analyzed, and therefore needs to rely on empirical evaluation to test the efficacy of a trained CNN. This can lead to hidden biases that affect the performance evaluation of neural networks, but are difficult to identify. Here we discuss examples of such hidden biases in common and widely used benchmark datasets, and propose techniques for identifying dataset biases that can affect the standard performance evaluation metrics. One effective approach to identify dataset bias is to perform image classification by using merely blank background parts of the original images. However, in some situations a blank background in the images is not available, making it more difficult to separate foreground or contextual information from the bias. To overcome this, we propose a method to identify dataset bias without the need to crop background information from the images. That method is based on applying several image transforms to the original images, including Fourier transform, wavelet transforms, median filter, and their combinations. These transforms were applied to recover background bias information that CNNs use to classify images. This transformations affect the contextual visual information in a different manner than it affects the systemic background bias. Therefore, the method can distinguish between contextual information and the bias, and alert on the presence of background bias even without the need to separate sub-images parts from the blank background of the original images. Code used in the experiments is publicly available.

arxiv情報

著者 Sai Teja Erukude,Akhil Joshi,Lior Shamir
発行日 2024-12-17 16:51:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク