要約
ディープ ニューラル ネットワークの従来のトレーニングでは、通常、高額な人間による注釈を含む大量のデータが必要です。
このホワイト ペーパーでは、メタ学習のアイデアを利用して、2 つの非常に異なる少数ショット学習の流れ、つまりエピソード メタ学習ベースと事前トレーニング微調整ベースの少数ショット学習を説明し、統一されたメタを形成します。
-学習フレームワーク。
フレームワークの一般化能力を向上させるために、メタドロップアウトという名前のシンプルで効果的な戦略を提案します。これは、基本カテゴリから新しいカテゴリに一般化された移転可能な知識に適用されます。
提案された戦略は、メタトレーニング段階でニューラルユニットが過度に共適応するのを効果的に防ぐことができます。
Pascal VOC、MS COCO、CUB、および mini-ImageNet などの少数ショットのオブジェクト検出および少数ショットの画像分類データセットに関する広範な実験により、この方法の有効性が検証されます。
要約(オリジナル)
Conventional training of deep neural networks usually requires a substantial amount of data with expensive human annotations. In this paper, we utilize the idea of meta-learning to explain two very different streams of few-shot learning, i.e., the episodic meta-learning-based and pre-train finetune-based few-shot learning, and form a unified meta-learning framework. In order to improve the generalization power of our framework, we propose a simple yet effective strategy named meta-dropout, which is applied to the transferable knowledge generalized from base categories to novel categories. The proposed strategy can effectively prevent neural units from co-adapting excessively in the meta-training stage. Extensive experiments on the few-shot object detection and few-shot image classification datasets, i.e., Pascal VOC, MS COCO, CUB, and mini-ImageNet, validate the effectiveness of our method.
arxiv情報
著者 | Shaobo Lin,Xingyu Zeng,Rui Zhao |
発行日 | 2022-10-12 17:05:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google