要約
タイトル:few-shot物体検出のためのメタチューニング損失関数とデータ拡張
要約:
– few-shot物体検出は、少数のトレーニングインスタンスで新しいオブジェクト検出カテゴリをモデリングする問題である。
– 当代のアプローチは、ファインチューニングベースとメタラーニングベースの2つに分類できる。
– ファインチューニングアプローチは、勾配ベースの最適化を通じて、検出モデルを新しいクラスに適応させることで、few-shot検出に取り組む。
– ロス関数と拡張機能がファインチューニングプロセスを推進する力であることに着目し、それらの動力学をメタラーニング原則を介して調整することを提案する。
– このトレーニングスキームにより、ファインチューニングアプローチの利点を保ちつつ、few-shot検出を強化する帰納バイアスを学習することができる。
– 提案された方法は、複雑なfew-shotメタモデルに対する高度にパラメトリックで複雑な代わりに、解釈可能なロス関数を生成する。
– 実験結果は、提案手法のメリットを強調し、主要なfew-shot検出ベースラインに比べて、Pascal VOCおよびMS-COCOデータセットで標準および一般化されたfew-shotパフォーマンスメトリックの両方で有意な改善が見られた。
要約(オリジナル)
Few-shot object detection, the problem of modelling novel object detection categories with few training instances, is an emerging topic in the area of few-shot learning and object detection. Contemporary techniques can be divided into two groups: fine-tuning based and meta-learning based approaches. While meta-learning approaches aim to learn dedicated meta-models for mapping samples to novel class models, fine-tuning approaches tackle few-shot detection in a simpler manner, by adapting the detection model to novel classes through gradient based optimization. Despite their simplicity, fine-tuning based approaches typically yield competitive detection results. Based on this observation, we focus on the role of loss functions and augmentations as the force driving the fine-tuning process, and propose to tune their dynamics through meta-learning principles. The proposed training scheme, therefore, allows learning inductive biases that can boost few-shot detection, while keeping the advantages of fine-tuning based approaches. In addition, the proposed approach yields interpretable loss functions, as opposed to highly parametric and complex few-shot meta-models. The experimental results highlight the merits of the proposed scheme, with significant improvements over the strong fine-tuning based few-shot detection baselines on benchmark Pascal VOC and MS-COCO datasets, in terms of both standard and generalized few-shot performance metrics.
arxiv情報
著者 | Berkan Demirel,Orhun Buğra Baran,Ramazan Gokberk Cinbis |
発行日 | 2023-04-24 15:14:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI