要約
深層学習モデルは、適用されるタスクに固有の制約を認識していないことがよくあります。
ただし、多くの下流タスクでは論理的な一貫性が必要です。
オントロジー分類タスクの場合、そのような制約には、クラス間の包含および素の関係が含まれます。
深層学習モデルの一貫性を高めるために、ラベルベースの損失と包含違反または素性違反を罰する用語を組み合わせたファジー損失を提案します。
ChEBI オントロジーに関する私たちの評価は、ファジー損失により、分類パフォーマンスを低下させることなく一貫性違反の数を数桁減少させることができることを示しています。
さらに、教師なし学習にはファジー損失を使用します。
これにより、データの一貫性がさらに向上することを示します。
要約(オリジナル)
Deep learning models are often unaware of the inherent constraints of the task they are applied to. However, many downstream tasks require logical consistency. For ontology classification tasks, such constraints include subsumption and disjointness relations between classes. In order to increase the consistency of deep learning models, we propose a fuzzy loss that combines label-based loss with terms penalising subsumption- or disjointness-violations. Our evaluation on the ChEBI ontology shows that the fuzzy loss is able to decrease the number of consistency violations by several orders of magnitude without decreasing the classification performance. In addition, we use the fuzzy loss for unsupervised learning. We show that this can further improve consistency on data from a
arxiv情報
著者 | Simon Flügel,Martin Glauer,Till Mossakowski,Fabian Neuhaus |
発行日 | 2024-08-19 14:42:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google