Inspecting class hierarchies in classification-based metric learning models

要約

ほとんどの分類モデルは、すべての誤分類を同等に扱います。
ただし、さまざまなクラスが関連している可能性があり、これらの階層関係は、一部の分類問題で考慮する必要があります。
これらの問題は、トレーニング中に階層情報を使用することで対処できます。
残念ながら、この情報はすべてのデータセットで利用できるわけではありません。
多くの分類ベースのメトリック学習方法では、埋め込み空間でクラス代表を使用して、さまざまなクラスを表します。
次に、学習したクラス代表間の関係を使用して、クラスの階層構造を推定できます。
事前定義されたクラス階層がある場合、学習したクラスの代表を評価して、メトリック学習モデルが以前の知識と一致するセマンティック距離を学習したかどうかを判断できます。
この作業では、ベンチマークと実世界のデータセットでいくつかのトレーニング オプションを使用して、softmax 分類子と 3 つのメトリック学習モデルをトレーニングします。
標準的な分類精度に加えて、学習したクラスの代表と階層に基づくパフォーマンス、つまり分類パフォーマンスを検査することによる階層推論パフォーマンス、および事前定義された階層構造を考慮することによるメトリック学習パフォーマンスを評価します。
さらに、考慮された測定値がさまざまなモデルとトレーニング オプションによってどのように影響を受けるかを調査します。
提案された ProxyDR モデルが事前定義された階層構造を使用せずにトレーニングされると、階層推論のパフォーマンスは一般的な NormFace モデルよりも大幅に向上します。
さらに、私たちのモデルは、同じトレーニング オプションの下で、いくつかの階層情報に基づいたパフォーマンス測定を強化します。
また、ランダムな重みを持つ畳み込みニューラル ネットワーク (CNN) は、事前定義された階層にランダム チャンスよりもよく対応することもわかりました。

要約(オリジナル)

Most classification models treat all misclassifications equally. However, different classes may be related, and these hierarchical relationships must be considered in some classification problems. These problems can be addressed by using hierarchical information during training. Unfortunately, this information is not available for all datasets. Many classification-based metric learning methods use class representatives in embedding space to represent different classes. The relationships among the learned class representatives can then be used to estimate class hierarchical structures. If we have a predefined class hierarchy, the learned class representatives can be assessed to determine whether the metric learning model learned semantic distances that match our prior knowledge. In this work, we train a softmax classifier and three metric learning models with several training options on benchmark and real-world datasets. In addition to the standard classification accuracy, we evaluate the hierarchical inference performance by inspecting learned class representatives and the hierarchy-informed performance, i.e., the classification performance, and the metric learning performance by considering predefined hierarchical structures. Furthermore, we investigate how the considered measures are affected by various models and training options. When our proposed ProxyDR model is trained without using predefined hierarchical structures, the hierarchical inference performance is significantly better than that of the popular NormFace model. Additionally, our model enhances some hierarchy-informed performance measures under the same training options. We also found that convolutional neural networks (CNNs) with random weights correspond to the predefined hierarchies better than random chance.

arxiv情報

著者 Hyeongji Kim,Pekka Parviainen,Terje Berge,Ketil Malde
発行日 2023-01-26 12:40:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク