Meta Omnium: A Benchmark for General-Purpose Learning-to-Learn

要約

メタ学習やその他の少数ショット学習へのアプローチは、画像認識において広く研究されており、姿勢推定や密な予測など、他の視覚タスクへの適用も増えている。このことは当然、これらの多様なタスクタイプに汎化できる少数点学習メタ学習アルゴリズムが存在するのか、という問いを提起している。この問いに答えるために、我々は、認識、キーポイントローカライズ、セマンティックセグメンテーション、回帰を含む複数のビジョンタスクにまたがるデータセットオブデータセットであるMeta Omniumを紹介する。我々は、一般的な数発のメタ学習ベースラインと実験し、タスク間の汎化やタスク間の知識伝達の能力を分析する。Meta Omniumは、メタラーニング研究者が従来よりもはるかに幅広いタスクに対するモデルの汎化を評価することを可能にし、幅広いビジョンアプリケーションのスイートで一貫した方法でメタラーを評価するための単一のフレームワークを提供します。

要約(オリジナル)

Meta-learning and other approaches to few-shot learning are widely studied for image recognition, and are increasingly applied to other vision tasks such as pose estimation and dense prediction. This naturally raises the question of whether there is any few-shot meta-learning algorithm capable of generalizing across these diverse task types? To support the community in answering this question, we introduce Meta Omnium, a dataset-of-datasets spanning multiple vision tasks including recognition, keypoint localization, semantic segmentation and regression. We experiment with popular few-shot meta-learning baselines and analyze their ability to generalize across tasks and to transfer knowledge between them. Meta Omnium enables meta-learning researchers to evaluate model generalization to a much wider array of tasks than previously possible, and provides a single framework for evaluating meta-learners across a wide suite of vision applications in a consistent manner.

arxiv情報

著者 Ondrej Bohdal,Yinbing Tian,Yongshuo Zong,Ruchika Chavhan,Da Li,Henry Gouk,Li Guo,Timothy Hospedales
発行日 2023-05-12 17:25:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク