Explore the Power of Dropout on Few-shot Learning

要約

事前トレーニング済みモデルの一般化能力は、少数ショットの深層学習の鍵です。
ドロップアウトは、従来の深層学習手法で使用される正則化手法です。
このホワイトペーパーでは、少数ショット学習におけるドロップアウトの力を探り、その使用方法についていくつかの洞察を提供します。
Pascal VOC、MS COCO、CUB、および mini-ImageNet などの少数ショットのオブジェクト検出および少数ショットの画像分類データセットに関する広範な実験により、この方法の有効性が検証されます。

要約(オリジナル)

The generalization power of the pre-trained model is the key for few-shot deep learning. Dropout is a regularization technique used in traditional deep learning methods. In this paper, we explore the power of dropout on few-shot learning and provide some insights about how to use it. Extensive experiments on the few-shot object detection and few-shot image classification datasets, i.e., Pascal VOC, MS COCO, CUB, and mini-ImageNet, validate the effectiveness of our method.

arxiv情報

著者 Shaobo Lin,Xingyu Zeng,Rui Zhao
発行日 2023-01-26 10:10:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク