要約
「VIPriors: データ効率の高い深層学習のための視覚的帰納的事前分布」ワークショップの第 4 版では、データが損なわれた 2 つの課題が取り上げられます。
これらの課題は、限られたデータを使用してコンピューター ビジョン タスク用の深層学習モデルをトレーニングするという問題に対処します。
参加者は、少数のトレーニング サンプルを使用してゼロからモデルをトレーニングすることに制限されており、いかなる形式の転移学習も使用することはできません。
私たちは、深層学習モデルのデータ効率を向上させるために帰納的バイアスを組み込んだ新しいアプローチの開発を促進することを目指しています。
提供されたベースラインと比較して大幅な進歩が見られ、どちらのタスクでも、勝利したソリューションがベースラインを大幅に上回っています。
以前のエディションと同様に、これらの成果は主にデータ拡張ポリシーと大規模なモデル アンサンブルの多用によるものですが、昨年と比較して、新しい事前ベースの手法がソリューションの成功にさらに貢献しているようです。
このレポートでは、課題とその結果の重要な側面に焦点を当てています。
要約(オリジナル)
The fourth edition of the ‘VIPriors: Visual Inductive Priors for Data-Efficient Deep Learning’ workshop features two data-impaired challenges. These challenges address the problem of training deep learning models for computer vision tasks with limited data. Participants are limited to training models from scratch using a low number of training samples and are not allowed to use any form of transfer learning. We aim to stimulate the development of novel approaches that incorporate inductive biases to improve the data efficiency of deep learning models. Significant advancements are made compared to the provided baselines, where winning solutions surpass the baselines by a considerable margin in both tasks. As in previous editions, these achievements are primarily attributed to heavy use of data augmentation policies and large model ensembles, though novel prior-based methods seem to contribute more to successful solutions compared to last year. This report highlights the key aspects of the challenges and their outcomes.
arxiv情報
著者 | Robert-Jan Bruintjes,Attila Lengyel,Marcos Baptista Rios,Osman Semih Kayhan,Davide Zambrano,Nergis Tomen,Jan van Gemert |
発行日 | 2024-07-01 07:59:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google