Few-shot Partial Multi-view Learning

要約

実際のアプリケーションでは、データが複数のビューを持つことがよくあります。
各ビューの情報を十分に調査することは、データをより代表的なものにするために重要です。
ただし、データ収集と前処理におけるさまざまな制限と失敗により、実際のデータがビューの欠落やデータ不足に悩まされることは避けられません。
これら 2 つの問題が共存すると、パターン分類タスクの達成がより困難になります。
現在、私たちの知る限り、これら 2 つの問題を同時に適切に処理できる適切な方法はほとんどありません。
コミュニティからこの課題により多くの注目を集めることを目的として、このホワイト ペーパーでは、少数ショット部分多視点学習と呼ばれる新しいタスクを提案します。
.
このタスクの課題は 2 つあります。(i) ビューの欠落による干渉下でのデータ不足の影響を克服することは困難です。
(ii) データの数が限られているため、情報不足が悪化し、ビューの欠落の問題に対処することが難しくなります。
これらの課題に対処するために、新しい統一されたガウス高密度アンカー法を提案します。
統一された密なアンカーは、限定された部分多視点データに対して学習され、それによって、データの不足とビューの欠落の影響を軽減できる統一された密な表現空間にそれらを固定します。
私たちは、私たちの方法を評価するために大規模な実験を行います。
Cub-googlenet-doc2vec、手書き、Caltech102、Scene15、Animal、ORL、tieredImagenet、および Birds-200-2011 データセットの結果は、その有効性を検証します。

要約(オリジナル)

It is often the case that data are with multiple views in real-world applications. Fully exploring the information of each view is significant for making data more representative. However, due to various limitations and failures in data collection and pre-processing, it is inevitable for real data to suffer from view missing and data scarcity. The coexistence of these two issues makes it more challenging to achieve the pattern classification task. Currently, to our best knowledge, few appropriate methods can well-handle these two issues simultaneously. Aiming to draw more attention from the community to this challenge, we propose a new task in this paper, called few-shot partial multi-view learning, which focuses on overcoming the negative impact of the view-missing issue in the low-data regime. The challenges of this task are twofold: (i) it is difficult to overcome the impact of data scarcity under the interference of missing views; (ii) the limited number of data exacerbates information scarcity, thus making it harder to address the view-missing issue in turn. To address these challenges, we propose a new unified Gaussian dense-anchoring method. The unified dense anchors are learned for the limited partial multi-view data, thereby anchoring them into a unified dense representation space where the influence of data scarcity and view missing can be alleviated. We conduct extensive experiments to evaluate our method. The results on Cub-googlenet-doc2vec, Handwritten, Caltech102, Scene15, Animal, ORL, tieredImagenet, and Birds-200-2011 datasets validate its effectiveness.

arxiv情報

著者 Yuan Zhou,Yanrong Guo,Shijie Hao,Richang Hong,Jiebo Luo
発行日 2023-02-23 09:40:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク