Multi-View Class Incremental Learning

要約

マルチビュー学習 (MVL) は、データセットの複数の視点からの情報を統合して、下流のタスクのパフォーマンスを向上させることに大きな成功を収めています。
オープンエンド環境で MVL 手法をより実践的にするために、この論文では、マルチビュー クラス増分学習 (MVCIL) と呼ばれる新しいパラダイムを調査します。このパラダイムでは、単一のモデルがビューの継続的なストリームから新しいクラスを段階的に分類し、以前のモデルへのアクセスを必要としません。
データの見方。
しかし、MVCIL は、古い情報が壊滅的に忘れられ、新しい概念の学習が妨げられるという課題に直面しています。
これに対処するために、私たちはまず、特徴抽出に役立つランダム化ベースの表現学習手法を開発し、クラスに属する複数のビューが順番に提示される、個別のビューに最適な動作状態を保証します。
次に、抽出された特徴が広がる直交性融合部分空間にそれらを 1 つずつ統合します。
最後に、新しいクラスに遭遇しながら意思決定を忘れずに学習するための選択的重み統合を紹介します。
合成データセットと現実世界のデータセットに関する広範な実験により、私たちのアプローチの有効性が検証されています。

要約(オリジナル)

Multi-view learning (MVL) has gained great success in integrating information from multiple perspectives of a dataset to improve downstream task performance. To make MVL methods more practical in an open-ended environment, this paper investigates a novel paradigm called multi-view class incremental learning (MVCIL), where a single model incrementally classifies new classes from a continual stream of views, requiring no access to earlier views of data. However, MVCIL is challenged by the catastrophic forgetting of old information and the interference with learning new concepts. To address this, we first develop a randomization-based representation learning technique serving for feature extraction to guarantee their separate view-optimal working states, during which multiple views belonging to a class are presented sequentially; Then, we integrate them one by one in the orthogonality fusion subspace spanned by the extracted features; Finally, we introduce selective weight consolidation for learning-without-forgetting decision-making while encountering new classes. Extensive experiments on synthetic and real-world datasets validate the effectiveness of our approach.

arxiv情報

著者 Depeng Li,Tianqi Wang,Junwei Chen,Kenji Kawaguchi,Cheng Lian,Zhigang Zeng
発行日 2023-10-13 13:48:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.MM パーマリンク