Expanding Small-Scale Datasets with Guided Imagination

要約

DNNの威力は、学習データの量と質に大きく依存します。しかし、大規模なデータの収集と注釈付けは、しばしばコストと時間がかかり、DNNの応用を大きく妨げる。この問題に対処するため、我々はデータセット拡張と呼ばれる、すぐに使える小さなデータセットを、新しいラベル付きサンプルを自動的に作成することで拡張することを目指す新しいタスクを探求する。この目的のために、我々は、最先端の生成モデル(例:DALL-E2、安定拡散(SD))を活用して、入力された種データから情報量の多い新しいデータを「想像」して作成するGuided Imagination Framework(GIF)を提示する。具体的には、GIFは、シードデータの潜在的な特徴を、先行モデルの意味的な空間において最適化することでデータ想像を行い、それを用いて新しいコンテンツを持つフォトリアルな画像を作成する。モデル学習のための情報量の多いサンプルの作成に向けて想像力を導くために、クラス維持型情報ブースティングとサンプル多様性促進という2つの重要な基準を導入しています。この2つの基準は、効果的なデータセット拡張に不可欠であることが検証された。GIF-SDは、自然画像データセットにおいて、SDを用いたガイドなしの拡張と比較して、13.5%高いモデル精度を得ることができた。GIF-SDは、自然画像データセット6件において平均36.9%、医療データセット3件において平均13.5%モデル精度を向上させ、様々な少量データシナリオにおいてデータセットを効果的に拡張する。なお、ソースコードは公開される予定です。\URL{https://github.com/Vanint/DatasetExpansion}をご参照ください。

要約(オリジナル)

The power of DNNs depends heavily on the quantity and quality of training data. However, collecting and annotating data on a large scale is often costly and time-consuming, which severely hinders the application of DNNs. To address this issue, we explore a new task, termed as dataset expansion, which seeks to expand a ready-to-use small dataset by automatically creating new labeled samples. To this end, we present a Guided Imagination Framework (GIF) that leverages cutting-edge generative models (e.g., DALL-E2, Stable Diffusion (SD)) to “imagine” and create informative new data from the input seed data. Specifically, GIF conducts data imagination by optimizing the latent features of the seed data in the semantically meaningful space of the prior model, which are used to create photo-realistic images with new content. To guide the imagination towards creating informative samples for model training, we introduce two key criteria, i.e., class-maintained information boosting and sample diversity promotion. The two criteria are verified to be essential for effective dataset expansion: GIF-SD obtains 13.5\% higher model accuracy on natural image datasets than unguided expansion with SD. With these essential criteria, GIF expands datasets effectively in various small-data scenarios, boosting model accuracy by 36.9\% on average over six natural image datasets and by 13.5\% on average over three medical datasets. The source code will be released: \url{https://github.com/Vanint/DatasetExpansion}.

arxiv情報

著者 Yifan Zhang,Daquan Zhou,Bryan Hooi,Kai Wang,Jiashi Feng
発行日 2023-03-03 12:50:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク