要約
合成データを使用して画像表現を学習することで、プライバシーやバイアスなど、実際の画像に関連する懸念事項を気にせずにニューラル ネットワークをトレーニングできます。
既存の研究は、設計に専門知識を必要とする、いくつかの精選された生成プロセスに焦点を当てているため、スケールアップが困難です。
これを克服するために、それぞれが多様な合成画像のセットを生成する 21,000 個のプログラムの大規模なデータセットを使用したトレーニングを提案します。
これらのプログラムは短いコード スニペットであり、変更が容易で、OpenGL を使用して高速に実行できます。
提案されたデータセットは、教師ありと教師なしの両方の表現学習に使用でき、実際の事前トレーニングと手続き的に生成された画像のギャップを 38% 削減します。
要約(オリジナル)
Learning image representations using synthetic data allows training neural networks without some of the concerns associated with real images, such as privacy and bias. Existing work focuses on a handful of curated generative processes which require expert knowledge to design, making it hard to scale up. To overcome this, we propose training with a large dataset of twenty-one thousand programs, each one generating a diverse set of synthetic images. These programs are short code snippets, which are easy to modify and fast to execute using OpenGL. The proposed dataset can be used for both supervised and unsupervised representation learning, and reduces the gap between pre-training with real and procedurally generated images by 38%.
arxiv情報
著者 | Manel Baradad,Chun-Fu Chen,Jonas Wulff,Tongzhou Wang,Rogerio Feris,Antonio Torralba,Phillip Isola |
発行日 | 2022-11-29 17:34:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google