Reinforce Data, Multiply Impact: Improved Model Accuracy and Robustness with Dataset Reinforcement

要約

私たちは、データセット強化を提案します。これは、ユーザーが追加のトレーニング費用をかけずに、強化されたデータセットでトレーニングされたモデル アーキテクチャの精度が向上するように、データセットを 1 回改善する戦略です。
私たちは、データの増強と知識の蒸留に基づいたデータセット強化戦略を提案します。
当社の一般的な戦略は、CNN および変圧器ベースのモデルにわたる広範な分析と、さまざまなデータ拡張を備えた最先端のモデルを使用した蒸留の大規模研究の実行に基づいて設計されています。
ImageNet+ と呼ばれる ImageNet トレーニング データセットの強化バージョンと、強化データセット CIFAR-100+、Fflowers-102+、Food-101+ を作成します。
ImageNet+ でトレーニングされたモデルは、より正確で、堅牢で、調整されており、下流のタスク (セグメンテーションや検出など) に適切に転送されます。
一例として、ResNet-50 の精度は、ImageNet 検証セットでは 1.7%、ImageNetV2 では 3.5%、ImageNet-R では 10.0% 向上しています。
ImageNet 検証セットの予想されるキャリブレーション エラー (ECE) も 9.9% 減少します。
MS-COCO での物体検出にこのバックボーンを Mask-RCNN と併用すると、平均精度が 0.8% 向上します。
MobileNets、ViTs、および Swin-Transformers についても同様の利益が得られます。
MobileNetV3 と Swin-Tiny では、ImageNet-R/A/C で堅牢性が最大 20% 向上するという大幅な改善が見られます。
ImageNet+ で事前トレーニングされ、CIFAR-100+、Fflowers-102+、Food-101+ で微調整されたモデルは、精度が最大 3.4% 向上しました。
コード、データセット、および事前トレーニングされたモデルは、https://github.com/apple/ml-dr で入手できます。

要約(オリジナル)

We propose Dataset Reinforcement, a strategy to improve a dataset once such that the accuracy of any model architecture trained on the reinforced dataset is improved at no additional training cost for users. We propose a Dataset Reinforcement strategy based on data augmentation and knowledge distillation. Our generic strategy is designed based on extensive analysis across CNN- and transformer-based models and performing large-scale study of distillation with state-of-the-art models with various data augmentations. We create a reinforced version of the ImageNet training dataset, called ImageNet+, as well as reinforced datasets CIFAR-100+, Flowers-102+, and Food-101+. Models trained with ImageNet+ are more accurate, robust, and calibrated, and transfer well to downstream tasks (e.g., segmentation and detection). As an example, the accuracy of ResNet-50 improves by 1.7% on the ImageNet validation set, 3.5% on ImageNetV2, and 10.0% on ImageNet-R. Expected Calibration Error (ECE) on the ImageNet validation set is also reduced by 9.9%. Using this backbone with Mask-RCNN for object detection on MS-COCO, the mean average precision improves by 0.8%. We reach similar gains for MobileNets, ViTs, and Swin-Transformers. For MobileNetV3 and Swin-Tiny, we observe significant improvements on ImageNet-R/A/C of up to 20% improved robustness. Models pretrained on ImageNet+ and fine-tuned on CIFAR-100+, Flowers-102+, and Food-101+, reach up to 3.4% improved accuracy. The code, datasets, and pretrained models are available at https://github.com/apple/ml-dr.

arxiv情報

著者 Fartash Faghri,Hadi Pouransari,Sachin Mehta,Mehrdad Farajtabar,Ali Farhadi,Mohammad Rastegari,Oncel Tuzel
発行日 2023-09-22 17:36:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク