Minimizing the Effect of Noise and Limited Dataset Size in Image Classification Using Depth Estimation as an Auxiliary Task with Deep Multitask Learning

要約

一般化可能性は、機械学習 (ML) 画像分類器の最終的な目標であり、ノイズと限られたデータセット サイズが主要な懸念事項の 1 つです。
深層マルチタスク学習 (dMTL) のフレームワークを利用し、画像深度推定を補助タスクとして組み込むことで、これらの課題に取り組みます。
MNIST データセットのカスタマイズされた深さ拡張された派生物について、a) マルチタスク損失関数が dMTL を実装する最も効果的なアプローチである、b) 限られたデータセット サイズが主に分類の不正確さに寄与する、および c) 深さ推定は主にノイズの影響を受けることを示します。
.
結果をさらに検証するために、シーン分類タスク用に NYU Depth V2 データセットを手動でラベル付けしました。
この分野への貢献として、Python ネイティブ形式のデータをオープンソース データセットとして公開し、シーン ラベルを提供しました。
MNIST と NYU-Depth-V2 に関する私たちの実験では、データセットにノイズが多く、例の数が限られている場合、dMTL が分類子の一般化可能性を向上させることが示されています。

要約(オリジナル)

Generalizability is the ultimate goal of Machine Learning (ML) image classifiers, for which noise and limited dataset size are among the major concerns. We tackle these challenges through utilizing the framework of deep Multitask Learning (dMTL) and incorporating image depth estimation as an auxiliary task. On a customized and depth-augmented derivation of the MNIST dataset, we show a) multitask loss functions are the most effective approach of implementing dMTL, b) limited dataset size primarily contributes to classification inaccuracy, and c) depth estimation is mostly impacted by noise. In order to further validate the results, we manually labeled the NYU Depth V2 dataset for scene classification tasks. As a contribution to the field, we have made the data in python native format publicly available as an open-source dataset and provided the scene labels. Our experiments on MNIST and NYU-Depth-V2 show dMTL improves generalizability of the classifiers when the dataset is noisy and the number of examples is limited.

arxiv情報

著者 Khashayar Namdar,Partoo Vafaeikia,Farzad Khalvati
発行日 2022-08-22 15:13:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク