HIER: Metric Learning Beyond Class Labels via Hierarchical Regularization

要約

タイトル: ヒエラルキカルな正則化を介したクラスラベルを超えたメトリック学習(HIER:Metric Learning Beyond Class Labels via Hierarchical Regularization)

要約:
– メトリック学習に対する監督は、長年にわたってクラスラベル間の同等性の形で提供されてきました。
– しかし、この種の監督は、分野のさらなる進歩を妨げる可能性があるため、さらなる進歩を妨げる可能性があります。
– この点において、HIERと呼ばれる新しい正則化方法を提案し、トレーニングデータの潜在的な意味の階層を発見し、共通のメトリック学習損失によって誘発されたクラス間の分離能力よりも豊富でより精細な監督を提供するために階層を展開します。
– HIERは、意味の階層についての注釈はなく、ハイパーボリック空間で階層的プロキシを学習することにより、この目標を達成します。
– 階層的プロキシは学習可能なパラメータであり、それぞれがデータのグループまたは他のプロキシの祖先として機能するように訓練され、それらの間の意味的階層を近似する。
– HIERは、プロキシとデータをハイパーボリック空間で扱うため、空間の幾何学的性質が階層的構造を表現するのに適しています。
– HIERの有効性は、4つの標準ベンチマークで評価され、既存のハイパーボリックメトリック学習技術を超えて、ほとんどの設定で最高記録を達成し、従来の方法と統合すると常にパフォーマンスを向上させました。

要約(オリジナル)

Supervision for metric learning has long been given in the form of equivalence between human-labeled classes. Although this type of supervision has been a basis of metric learning for decades, we argue that it hinders further advances in the field. In this regard, we propose a new regularization method, dubbed HIER, to discover the latent semantic hierarchy of training data, and to deploy the hierarchy to provide richer and more fine-grained supervision than inter-class separability induced by common metric learning losses.HIER achieves this goal with no annotation for the semantic hierarchy but by learning hierarchical proxies in hyperbolic spaces. The hierarchical proxies are learnable parameters, and each of them is trained to serve as an ancestor of a group of data or other proxies to approximate the semantic hierarchy among them. HIER deals with the proxies along with data in hyperbolic space since the geometric properties of the space are well-suited to represent their hierarchical structure. The efficacy of HIER is evaluated on four standard benchmarks, where it consistently improved the performance of conventional methods when integrated with them, and consequently achieved the best records, surpassing even the existing hyperbolic metric learning technique, in almost all settings.

arxiv情報

著者 Sungyeon Kim,Boseung Jeong,Suha Kwak
発行日 2023-04-10 07:48:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV パーマリンク