HyperSpaceX: Radial and Angular Exploration of HyperSpherical Dimensions

要約

従来のディープ ラーニング モデルは、分類や顔認識などのタスクでソフトマックス クロス エントロピーや ArcFace 損失などの手法に依存しています。
これらの方法は主に超球面空間内の角度特徴を探索します。多くの場合、多くのクラスにわたる高密度の角度データにより、クラス間の特徴がもつれます。
この論文では、HyperSpaceX として知られる新しい特徴探索分野を提案します。これは、新しい DistArc 損失によって促進され、複数の超球空間で角度と半径の両方の次元を探索することによってクラス識別を強化します。
提案された DistArc 損失には、2 つの角度と 1 つの放射状の 3 つの特徴配置コンポーネントが含まれており、マルチ放射状配置でのクラス内バインディングとクラス間の分離が強化され、特徴の識別性が向上します。
新しい表現に対する HyperSpaceX フレームワークの評価では、角度要素と半径要素の両方を考慮した提案された予測尺度が利用され、標準的な指標を超えたモデル精度のより包括的な評価が提供されます。
7 つの物体分類と 6 つの顔認識データセットにわたる実験では、HyperSpaceX から得られた最先端 (SoTA) の結果が実証され、低次元の大規模物体データセットで最大 20% のパフォーマンス向上と、最大 6% の向上を達成しました。
より高い次元。

要約(オリジナル)

Traditional deep learning models rely on methods such as softmax cross-entropy and ArcFace loss for tasks like classification and face recognition. These methods mainly explore angular features in a hyperspherical space, often resulting in entangled inter-class features due to dense angular data across many classes. In this paper, a new field of feature exploration is proposed known as HyperSpaceX which enhances class discrimination by exploring both angular and radial dimensions in multi-hyperspherical spaces, facilitated by a novel DistArc loss. The proposed DistArc loss encompasses three feature arrangement components: two angular and one radial, enforcing intra-class binding and inter-class separation in multi-radial arrangement, improving feature discriminability. Evaluation of HyperSpaceX framework for the novel representation utilizes a proposed predictive measure that accounts for both angular and radial elements, providing a more comprehensive assessment of model accuracy beyond standard metrics. Experiments across seven object classification and six face recognition datasets demonstrate state-of-the-art (SoTA) results obtained from HyperSpaceX, achieving up to a 20% performance improvement on large-scale object datasets in lower dimensions and up to 6% gain in higher dimensions.

arxiv情報

著者 Chiranjeev Chiranjeev,Muskan Dosi,Kartik Thakral,Mayank Vatsa,Richa Singh
発行日 2024-08-05 14:18:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク