Global Hierarchical Neural Networks using Hierarchical Softmax

要約

この論文では、階層ソフトマックスを使用してグローバル階層分類器を作成するフレームワークを紹介します。
このアプローチは、クラス間に自然な階層が存在するあらゆる分類タスクに適用できます。
4 つのテキスト分類データセットに関する経験的結果を示します。
すべてのデータセットにおいて、階層的ソフトマックスは、マクロ F1 とマクロリコールの点で、フラット分類器で使用される通常のソフトマックスよりも改善されました。
4 つのデータセットのうち 3 つで、階層ソフトマックスはより高いミクロ精度とマクロ精度を達成しました。

要約(オリジナル)

This paper presents a framework in which hierarchical softmax is used to create a global hierarchical classifier. The approach is applicable for any classification task where there is a natural hierarchy among classes. We show empirical results on four text classification datasets. In all datasets the hierarchical softmax improved on the regular softmax used in a flat classifier in terms of macro-F1 and macro-recall. In three out of four datasets hierarchical softmax achieved a higher micro-accuracy and macro-precision.

arxiv情報

著者 Jetze Schuurmans,Flavius Frasincar
発行日 2023-08-02 15:12:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG, stat.ML パーマリンク