要約
私たちは、知識の蒸留とデータの拡張の組み合わせを通じてビジョンモデルの堅牢性を向上させるための、概念的にシンプルで軽量なフレームワークを提案します。
私たちは、事前トレーニングされた基礎モデルから抽出した場合に分布外の堅牢性が大幅に向上することを示すことで、大規模なモデルが優れた教師にならないという推測に対処します。
この発見を受けて、私たちは離散敵対的蒸留 (DAD) を提案します。これは、堅牢な教師を利用して敵対的なサンプルを生成し、VQGAN を利用して敵対的なサンプルを離散化し、標準的なデータ拡張手法よりも有益なサンプルを作成します。
私たちは、データ拡張設定を使用した知識蒸留において堅牢な教師を使用するための理論的フレームワークを提供し、さまざまな生徒のアーキテクチャにわたって分布外の堅牢性とクリーンな精度が大幅に向上することを実証します。
特に、私たちの方法は同様の技術と比較してわずかな計算オーバーヘッドを追加し、さらなる改善のために他のデータ拡張と簡単に組み合わせることができます。
要約(オリジナル)
We propose a conceptually simple and lightweight framework for improving the robustness of vision models through the combination of knowledge distillation and data augmentation. We address the conjecture that larger models do not make for better teachers by showing strong gains in out-of-distribution robustness when distilling from pretrained foundation models. Following this finding, we propose Discrete Adversarial Distillation (DAD), which leverages a robust teacher to generate adversarial examples and a VQGAN to discretize them, creating more informative samples than standard data augmentation techniques. We provide a theoretical framework for the use of a robust teacher in the knowledge distillation with data augmentation setting and demonstrate strong gains in out-of-distribution robustness and clean accuracy across different student architectures. Notably, our method adds minor computational overhead compared to similar techniques and can be easily combined with other data augmentations for further improvements.
arxiv情報
著者 | Andy Zhou,Jindong Wang,Yu-Xiong Wang,Haohan Wang |
発行日 | 2023-11-02 17:55:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google