要約
マルチタスク学習 (MTL) は、複数の関連タスクが共同で学習され、共有表現空間またはパラメーター転送の恩恵を受けるフレームワークです。
十分な学習サポートを提供するために、最新の MTL は、タスク間で完全に、または十分に大きく重複する注釈付きデータを使用します。つまり、各入力サンプルには、すべてのタスクまたはほとんどのタスクに対して注釈が付けられます。
ただし、このようなアノテーションを収集することは、多くの実際のアプリケーションでは法外な作業であり、個々のタスクで利用できるデータセットの恩恵を受けることはできません。
この研究では、この設定に挑戦し、注釈がほとんどまたは重複していない分類タスク、またはタスクごとのラベル付きデータのサイズに大きな差異がある場合でも、MTL が成功できることを示します。
私たちは、共同アノテーションと共同トレーニングのタスク関連性を調査し、分布マッチングを介してタスク間で知識交換が可能になる新しいアプローチを提案します。
私たちの手法の一般的な適用可能性を実証するために、9 つのデータセットを使用して、感情コンピューティング、顔認識、種認識、買い物品目分類の分野でさまざまなケーススタディを実施しました。
基本的な表情認識と顔の動作単位の検出に関する感情タスクに関する私たちの大規模な研究は、私たちのアプローチがネットワークに依存せず、両方のタスクおよび研究されたすべてのデータベースにわたって最先端のものと比較して大幅なパフォーマンスの向上をもたらすことを示しています。
すべてのケーススタディにおいて、タスク関連性による共同トレーニングが有利であり、負の転移(MT モデルのパフォーマンスが少なくとも 1 つの単一タスク モデルのパフォーマンスより悪い場合に発生する)を防ぐことが示されています。
要約(オリジナル)
Multi-Task Learning (MTL) is a framework, where multiple related tasks are learned jointly and benefit from a shared representation space, or parameter transfer. To provide sufficient learning support, modern MTL uses annotated data with full, or sufficiently large overlap across tasks, i.e., each input sample is annotated for all, or most of the tasks. However, collecting such annotations is prohibitive in many real applications, and cannot benefit from datasets available for individual tasks. In this work, we challenge this setup and show that MTL can be successful with classification tasks with little, or non-overlapping annotations, or when there is big discrepancy in the size of labeled data per task. We explore task-relatedness for co-annotation and co-training, and propose a novel approach, where knowledge exchange is enabled between the tasks via distribution matching. To demonstrate the general applicability of our method, we conducted diverse case studies in the domains of affective computing, face recognition, species recognition, and shopping item classification using nine datasets. Our large-scale study of affective tasks for basic expression recognition and facial action unit detection illustrates that our approach is network agnostic and brings large performance improvements compared to the state-of-the-art in both tasks and across all studied databases. In all case studies, we show that co-training via task-relatedness is advantageous and prevents negative transfer (which occurs when MT model’s performance is worse than that of at least one single-task model).
arxiv情報
著者 | Dimitrios Kollias,Viktoriia Sharmanska,Stefanos Zafeiriou |
発行日 | 2024-01-02 14:18:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google