要約
不完全な知識グラフ(KGS)を介した複雑なクエリ応答(CQA)は、困難な作業です。
最近、CQAを解決するために、メッセージパスベースの研究のラインが提案されています。
ただし、ネガティブクエリでは不十分に実行され、クエリグラフの可変ノード間の騒々しいメッセージに対処できません。
さらに、彼らはほとんど解釈可能性を提供し、複雑なクエリデータとリソース集約型のトレーニングが必要です。
この論文では、事前に訓練されたニューラルリンク予測因子に基づいて、神経系シンボリックメッセージの合格(NSMP)フレームワークを提案します。
象徴的な推論とファジーロジックを導入することにより、NSMPは、解釈可能な回答を提供しながらトレーニングを必要とせずに、arbitrary意的な実存的な一次ロジッククエリに一般化できます。
さらに、変数ノード間でノイズの多いメッセージを除外する動的な剪定戦略を導入します。
実験結果は、NSMPが強力なパフォーマンスを達成することを示しています。
さらに、複雑さの分析と経験的検証を通じて、現在の最先端のニューラル – 神経調節法に対する推論時間におけるNSMPの優位性を実証します。
このアプローチと比較して、NSMPは、ベンチマークデータセット上のすべてのクエリタイプにわたってより速い推論時間を示しており、スピードアップは2 $ \ Times $から150 $ \ Times $を超える範囲です。
要約(オリジナル)
Complex Query Answering (CQA) over incomplete Knowledge Graphs (KGs) is a challenging task. Recently, a line of message-passing-based research has been proposed to solve CQA. However, they perform unsatisfactorily on negative queries and fail to address the noisy messages between variable nodes in the query graph. Moreover, they offer little interpretability and require complex query data and resource-intensive training. In this paper, we propose a Neural-Symbolic Message Passing (NSMP) framework based on pre-trained neural link predictors. By introducing symbolic reasoning and fuzzy logic, NSMP can generalize to arbitrary existential first order logic queries without requiring training while providing interpretable answers. Furthermore, we introduce a dynamic pruning strategy to filter out noisy messages between variable nodes. Experimental results show that NSMP achieves a strong performance. Additionally, through complexity analysis and empirical verification, we demonstrate the superiority of NSMP in inference time over the current state-of-the-art neural-symbolic method. Compared to this approach, NSMP demonstrates faster inference times across all query types on benchmark datasets, with speedup ranging from 2$\times$ to over 150$\times$.
arxiv情報
著者 | Chongzhi Zhang,Junhao Zheng,Zhiping Peng,Qianli Ma |
発行日 | 2025-01-24 17:30:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google