ImageNet-D: Benchmarking Neural Network Robustness on Diffusion Synthetic Object

要約

私たちは、視覚認識の堅牢性に関する厳格なベンチマークを確立します。
ImageNet-C、ImageNet-9、Stylized ImageNet などの合成画像は、合成破損、背景、テクスチャに対する特定のタイプの評価を提供しますが、これらの堅牢性ベンチマークは指定されたバリエーションに制限されており、合成品質は低くなります。
この研究では、ディープ モデルの堅牢性をベンチマークするハード イメージを合成するためのデータ ソースとして生成モデルを導入します。
拡散モデルを活用することで、これまでのどの研究よりも多様な背景、テクスチャ、マテリアルを備えた画像を生成できます。このベンチマークを ImageNet-D と呼びます。
実験結果によると、ImageNet-D により、標準の ResNet 視覚分類器から CLIP や MiniGPT-4 などの最新の基礎モデルに至るまで、さまざまな視覚モデルの精度が大幅に低下し、精度が最大 60% 低下することがわかりました。
私たちの研究は、拡散モデルが視覚モデルをテストするための効果的なソースである可能性があることを示唆しています。
コードとデータセットは https://github.com/chenshuang-zhang/imagenet_d で入手できます。

要約(オリジナル)

We establish rigorous benchmarks for visual perception robustness. Synthetic images such as ImageNet-C, ImageNet-9, and Stylized ImageNet provide specific type of evaluation over synthetic corruptions, backgrounds, and textures, yet those robustness benchmarks are restricted in specified variations and have low synthetic quality. In this work, we introduce generative model as a data source for synthesizing hard images that benchmark deep models’ robustness. Leveraging diffusion models, we are able to generate images with more diversified backgrounds, textures, and materials than any prior work, where we term this benchmark as ImageNet-D. Experimental results show that ImageNet-D results in a significant accuracy drop to a range of vision models, from the standard ResNet visual classifier to the latest foundation models like CLIP and MiniGPT-4, significantly reducing their accuracy by up to 60\%. Our work suggests that diffusion models can be an effective source to test vision models. The code and dataset are available at https://github.com/chenshuang-zhang/imagenet_d.

arxiv情報

著者 Chenshuang Zhang,Fei Pan,Junmo Kim,In So Kweon,Chengzhi Mao
発行日 2024-03-27 17:23:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク