Few-shot Partial Multi-view Learning

要約

実際のアプリケーションでは、データに複数のビューがあることがよくあります。
データをより代表的にするためには、各ビューの情報を完全に調査することが重要です。
ただし、データ収集と前処理におけるさまざまな制限や失敗により、実際のデータがビューの欠落やデータ不足に悩まされることは避けられません。
これら 2 つの問題が共存するため、パターン分類タスクを達成することがさらに困難になります。
現在、私たちの知る限り、これら 2 つの問題を同時に適切に処理できる適切な方法はほとんどありません。
この課題に対するコミュニティの注目をさらに集める目的で、本稿では、低データ領域におけるビュー欠落問題の悪影響を克服することに焦点を当てた、少数ショット部分マルチビュー学習と呼ばれる新しいタスクを提案します。

このタスクの課題は 2 つあります。(i) 欠落しているビューの干渉下でデータ不足の影響を克服するのは困難です。
(ii) データの数が限られているため、情報不足がさらに悪化し、ビュー欠落の問題に対処することがさらに困難になります。
これらの課題に対処するために、新しい統合ガウス密アンカー法を提案します。
統合された密なアンカーは、限られた部分的なマルチビュー データに対して学習され、それによってデータ不足とビューの欠落の影響を軽減できる統合された密な表現空間にデータを固定します。
私たちはメソッドを評価するために広範な実験を実施します。
Cub-googlenet-doc2vec、Handwriting、Caltech102、Scene15、Animal、ORL、tieredImagenet、および Birds-200-2011 データセットの結果は、その有効性を検証します。

要約(オリジナル)

It is often the case that data are with multiple views in real-world applications. Fully exploring the information of each view is significant for making data more representative. However, due to various limitations and failures in data collection and pre-processing, it is inevitable for real data to suffer from view missing and data scarcity. The coexistence of these two issues makes it more challenging to achieve the pattern classification task. Currently, to our best knowledge, few appropriate methods can well-handle these two issues simultaneously. Aiming to draw more attention from the community to this challenge, we propose a new task in this paper, called few-shot partial multi-view learning, which focuses on overcoming the negative impact of the view-missing issue in the low-data regime. The challenges of this task are twofold: (i) it is difficult to overcome the impact of data scarcity under the interference of missing views; (ii) the limited number of data exacerbates information scarcity, thus making it harder to address the view-missing issue in turn. To address these challenges, we propose a new unified Gaussian dense-anchoring method. The unified dense anchors are learned for the limited partial multi-view data, thereby anchoring them into a unified dense representation space where the influence of data scarcity and view missing can be alleviated. We conduct extensive experiments to evaluate our method. The results on Cub-googlenet-doc2vec, Handwritten, Caltech102, Scene15, Animal, ORL, tieredImagenet, and Birds-200-2011 datasets validate its effectiveness.

arxiv情報

著者 Yuan Zhou,Yanrong Guo,Shijie Hao,Richang Hong,Jiebo Luo
発行日 2023-05-18 13:25:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク