Distribution Matching for Multi-Task Learning of Classification Tasks: a Large-Scale Study on Faces & Beyond

要約

マルチタスク学習(Multi-Task Learning: MTL)は、関連する複数のタスクが共同で学習され、共有された表現空間やパラメータ転送の恩恵を受けるフレームワークである。十分な学習支援を提供するために、最新のMTLは、タスク間の完全な、あるいは十分に大きな重複を持つ注釈付きデータを使用する。しかし、このようなアノテーションを収集することは、多くの実際のアプリケーションでは法外であり、個々のタスクで利用可能なデータセットから利益を得ることはできない。本研究では、この設定に挑戦し、注釈がほとんどない、あるいは重複していない分類タスクや、タスクごとのラベル付きデータサイズに大きな不一致がある場合でも、MTLが成功する可能性があることを示す。共同アノテーションと共同学習におけるタスクの関連性を探求し、分布マッチングによってタスク間の知識交換を可能にする新しいアプローチを提案する。本手法の一般的な適用可能性を実証するために、9つのデータセットを用いて、感情コンピューティング、顔認識、種認識、買い物商品分類の領域における様々なケーススタディを行った。基本的な表情認識と顔行動単位検出のための感情タスクに関する大規模な研究により、我々の手法がネットワークに依存せず、両方のタスクにおいて、また全ての研究データベースにおいて、最先端技術と比較して大きな性能向上をもたらすことが示された。全てのケーススタディにおいて、タスク関連性を介した協調学習が有利であり、ネガティブトランスファー(MTモデルの性能が少なくとも1つの単一タスクモデルの性能よりも悪い場合に発生する)を防ぐことを示す。

要約(オリジナル)

Multi-Task Learning (MTL) is a framework, where multiple related tasks are learned jointly and benefit from a shared representation space, or parameter transfer. To provide sufficient learning support, modern MTL uses annotated data with full, or sufficiently large overlap across tasks, i.e., each input sample is annotated for all, or most of the tasks. However, collecting such annotations is prohibitive in many real applications, and cannot benefit from datasets available for individual tasks. In this work, we challenge this setup and show that MTL can be successful with classification tasks with little, or non-overlapping annotations, or when there is big discrepancy in the size of labeled data per task. We explore task-relatedness for co-annotation and co-training, and propose a novel approach, where knowledge exchange is enabled between the tasks via distribution matching. To demonstrate the general applicability of our method, we conducted diverse case studies in the domains of affective computing, face recognition, species recognition, and shopping item classification using nine datasets. Our large-scale study of affective tasks for basic expression recognition and facial action unit detection illustrates that our approach is network agnostic and brings large performance improvements compared to the state-of-the-art in both tasks and across all studied databases. In all case studies, we show that co-training via task-relatedness is advantageous and prevents negative transfer (which occurs when MT model’s performance is worse than that of at least one single-task model).

arxiv情報

著者 Dimitrios Kollias,Viktoriia Sharmanska,Stefanos Zafeiriou
発行日 2024-01-03 15:00:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク