Multi-Task Meta Learning: learn how to adapt to unseen tasks

要約

この作業は、マルチタスク学習 (MTL) とメタ学習の 2 つの学習パラダイムを統合して、両方の長所、つまり、MTL の要素である複数のタスクの同時学習と、より少ないデータで新しいタスクに迅速に適応することを組み合わせることを目的としています。
メタ学習の質。
メタ学習を採用することにより、シングルタスク学習と比較してMTLを強化するアプローチであるマルチタスクメタ学習(MTML)を提案します。
この作業の基本的なアイデアは、マルチタスク モデルをトレーニングすることです。これにより、目に見えないタスクが導入されたときに、より少ないステップで学習できると同時に、少なくとも新しいタスクでの従来の単一タスク学習と同等のパフォーマンスを提供したり、内部に含めたりすることができます。
MTL。
さまざまな実験を行うことで、2 つのデータセットと 4 つのタスクでこのパラダイムを実証します。NYU-v2 と、セマンティック セグメンテーション、深度推定、表面法線推定、およびエッジ検出を実行するタスクノミー データセットです。
MTML は、ほとんどのタスクで最先端の結果を達成し、MTL は、単一タスク学習と比較して、すべてのタスクでかなりのパフォーマンスを発揮します。

要約(オリジナル)

This work aims to integrate two learning paradigms Multi-Task Learning (MTL) and meta learning, to bring together the best of both worlds, i.e., simultaneous learning of multiple tasks, an element of MTL and promptly adapting to new tasks with fewer data, a quality of meta learning. We propose Multi-task Meta Learning (MTML), an approach to enhance MTL compared to single task learning by employing meta learning. The fundamental idea of this work is to train a multi-task model, such that when an unseen task is introduced, it can learn in fewer steps whilst offering a performance at least as good as conventional single task learning on the new task or inclusion within the MTL. By conducting various experiments, we demonstrate this paradigm on two datasets and four tasks: NYU-v2 and the taskonomy dataset for which we perform semantic segmentation, depth estimation, surface normal estimation, and edge detection. MTML achieves state-of-the-art results for most of the tasks, and MTL also performs reasonably well for all tasks compared to single task learning.

arxiv情報

著者 Richa Upadhyay,Prakash Chandra Chhipa,Ronald Phlypo,Rajkumar Saini,Marcus Liwicki
発行日 2022-10-13 12:59:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク