Design Perspectives of Multitask Deep Learning Models and Applications

要約

近年、マルチタスク学習はさまざまなアプリケーションで大きな成功を収めています。
単一モデルのトレーニングは、ここ数年にわたって素晴らしい結果を約束してきましたが、メトリックをより適切に推定するのに役立つ可能性のある貴重な情報を無視しています。
学習関連のタスクでは、マルチタスク学習により、モデルをさらに一般化することができました。
関連するタスクと帰納的転移学習の間で機能を共有することにより、マルチタスクモデルの機能マッピングを強化しようとします。
また、マルチタスク学習からより良い利益を得るために、さまざまなタスク間のタスク関係を学習することにも関心があります。
この章の目的は、既存のマルチタスク モデルを視覚化し、それらのパフォーマンスを比較し、マルチタスク モデルのパフォーマンスを評価する方法を比較し、さまざまなドメインでこれらのモデルの設計および実装中に直面する問題について議論することです。
それらによって達成された利点とマイルストーン

要約(オリジナル)

In recent years, multi-task learning has turned out to be of great success in various applications. Though single model training has promised great results throughout these years, it ignores valuable information that might help us estimate a metric better. Under learning-related tasks, multi-task learning has been able to generalize the models even better. We try to enhance the feature mapping of the multi-tasking models by sharing features among related tasks and inductive transfer learning. Also, our interest is in learning the task relationships among various tasks for acquiring better benefits from multi-task learning. In this chapter, our objective is to visualize the existing multi-tasking models, compare their performances, the methods used to evaluate the performance of the multi-tasking models, discuss the problems faced during the design and implementation of these models in various domains, and the advantages and milestones achieved by them

arxiv情報

著者 Yeshwant Singh,Anupam Biswas,Angshuman Bora,Debashish Malakar,Subham Chakraborty,Suman Bera
発行日 2022-09-27 15:04:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68Txx, cs.AI, cs.CV, cs.LG, I.2 パーマリンク