要約
オンライン ソーシャル ネットワーク (OSN) に多数のボットが存在すると、望ましくない社会的影響が生じます。
グラフ ニューラル ネットワーク (GNN) は、ユーザー インタラクションを効果的に利用できるため、ボット検出において最先端のパフォーマンスを実現しています。
ほとんどのシナリオでは、ボットと人間の分布が不均衡であるため、マイノリティ クラスのサンプルが過小評価され、最適なパフォーマンスが得られません。
ただし、ボット検出のための以前の GNN ベースの方法は、クラスの不均衡の問題の影響をほとんど考慮していません。
この論文では、ボット検出におけるクラスの不均衡の影響を軽減できる GNN (OS-GNN) のオーバーサンプリング戦略を提案します。
GNN の以前のオーバーサンプリング方法と比較して、OS-GNN はエッジ合成を必要とせず、エッジ構築中に必然的に導入されるノイズを排除します。
具体的には、ノードの特徴は、最初に近傍集約によって特徴空間にマッピングされ、次に特徴空間で少数派クラスのサンプルが生成されます。
最後に、拡張された特徴が GNN に入力され、分類器がトレーニングされます。
このフレームワークは一般的なものであり、さまざまな GNN アーキテクチャに簡単に拡張できます。
提案されたフレームワークは、3 つの実世界のボット検出ベンチマーク データセットを使用して評価され、ベースラインよりも一貫して優れていることが示されています。
要約(オリジナル)
The presence of a large number of bots in Online Social Networks (OSN) leads to undesirable social effects. Graph neural networks (GNNs) have achieved state-of-the-art performance in bot detection since they can effectively utilize user interaction. In most scenarios, the distribution of bots and humans is imbalanced, resulting in under-represent minority class samples and sub-optimal performance. However, previous GNN-based methods for bot detection seldom consider the impact of class-imbalanced issues. In this paper, we propose an over-sampling strategy for GNN (OS-GNN) that can mitigate the effect of class imbalance in bot detection. Compared with previous over-sampling methods for GNNs, OS-GNN does not call for edge synthesis, eliminating the noise inevitably introduced during the edge construction. Specifically, node features are first mapped to a feature space through neighborhood aggregation and then generated samples for the minority class in the feature space. Finally, the augmented features are fed into GNNs to train the classifiers. This framework is general and can be easily extended into different GNN architectures. The proposed framework is evaluated using three real-world bot detection benchmark datasets, and it consistently exhibits superiority over the baselines.
arxiv情報
著者 | Shuhao Shi,Kai Qiao,Jie Yang,Baojie Song,Jian Chen,Bin Yan |
発行日 | 2023-02-14 08:35:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google