要約
近年、グラフ ニューラル ネットワーク (GNN) におけるノード分類タスクが急速に発展し、さまざまな分野の研究が発展しています。
ただし、グラフ データには多数のクラスの不均衡があり、さまざまなクラスの数の間に大きなギャップがあるため、分類の結果が最適ではありません。
アンバランス問題の解決策を提案することは、下流のミッションを成功させるために不可欠になっています。
したがって、損失関数から始めて、グラフノードの不均衡を効果的に解決してノード分類タスクに参加できる損失関数を見つけようとします。
そのため、グラフ ニューラル ネットワークに GHMC Loss を導入して、限界ではない難しいサンプルを処理します。
限界サンプルと単純サンプルの損失寄与を減衰します。
複数のベンチマークでの実験は、私たちの方法がクラスの不均衡問題を効果的に処理できることを示しており、私たちの方法は従来の損失関数と比較して精度を 3% 向上させます。
要約(オリジナル)
In recent years, the node classification task in graph neural networks(GNNs) has developed rapidly, driving the development of research in various fields. However, there are a large number of class imbalances in the graph data, and there is a large gap between the number of different classes, resulting in suboptimal results in classification. Proposing a solution to the imbalance problem has become indispensable for the successful advancement of our downstream missions. Therefore, we start with the loss function and try to find a loss function that can effectively solve the imbalance of graph nodes to participate in the node classification task. thence, we introduce GHMC Loss into the graph neural networks to deal with difficult samples that are not marginal. Attenuate the loss contribution of marginal samples and simple samples. Experiments on multiple benchmarks show that our method can effectively deal with the class imbalance problem, and our method improves the accuracy by 3% compared to the traditional loss function.
arxiv情報
著者 | Min Liu,Siwen Jin,Luo Jin,Shuohan Wang,Yu Fang,Yuliang Shi |
発行日 | 2022-10-11 13:33:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google