要約
特徴の増強は、特徴空間で新しいサンプルを生成し、双曲線形状を使用して学習アルゴリズムの一般化能力を高める効果的な方法を提供します。
ほとんどの双曲線特徴の増強は、クラスの数が固定されていると仮定して(\ emph {i.e。}、seed classes)、これらのクラスのみのみを生成するため、閉鎖環境に限定されます。
この論文では、膨張環境の双曲線二重特徴拡張法を提案します。これは、双曲線空間で見られたクラスと目に見えない両方のクラスの特徴を増強するものです。
効率的なトレーニングのための実際のデータ分布のより正確な近似を取得するために、(1)メタラーニングによって強化された神経通常の微分方程式モジュールを採用し、見られたクラスと目に見えないクラスの両方の特徴分布を推定します。
(2)次に、双曲線空間内のデータの潜在的な階層構造を保存するために正規者を導入します。
(3)また、双曲線の二重増加損失の上限を導き出し、見られたクラスや目に見えないクラスの無限増強を使用して双曲線モデルを訓練できるようにします。
5つのオープン環境タスクに関する広範な実験:クラスインクリメンタル学習、少数のショットオープンセット認識、少数のショット学習、ゼロショット学習、一般的な画像分類は、我々の方法がオープン環境における双曲線アルゴリズムのパフォーマンスを効果的に向上させることを示しています。
要約(オリジナル)
Feature augmentation generates novel samples in the feature space, providing an effective way to enhance the generalization ability of learning algorithms with hyperbolic geometry. Most hyperbolic feature augmentation is confined to closed-environment, assuming the number of classes is fixed (\emph{i.e.}, seen classes) and generating features only for these classes. In this paper, we propose a hyperbolic dual feature augmentation method for open-environment, which augments features for both seen and unseen classes in the hyperbolic space. To obtain a more precise approximation of the real data distribution for efficient training, (1) we adopt a neural ordinary differential equation module, enhanced by meta-learning, estimating the feature distributions of both seen and unseen classes; (2) we then introduce a regularizer to preserve the latent hierarchical structures of data in the hyperbolic space; (3) we also derive an upper bound for the hyperbolic dual augmentation loss, allowing us to train a hyperbolic model using infinite augmentations for seen and unseen classes. Extensive experiments on five open-environment tasks: class-incremental learning, few-shot open-set recognition, few-shot learning, zero-shot learning, and general image classification, demonstrate that our method effectively enhances the performance of hyperbolic algorithms in open-environment.
arxiv情報
著者 | Peilin Yu,Yuwei Wu,Zhi Gao,Xiaomeng Fan,Shuo Yang,Yunde Jia |
発行日 | 2025-06-10 15:34:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google