要約
この論文では、\textit{偽陰性の問題} (つまり、潜在的な真の事実が除外される) と \textit{偽陽性の問題} (つまり、信頼できないまたは古い事実が除外される) の両方を含む現実世界のナレッジ グラフ (KG) での推測推論タスクを研究します。
含まれています)。
最先端の手法は、事実の正しさが KG 内のその存在によってのみ決定されると想定しているため、推論的推論能力が不足しており、偽陰性/陽性の問題に対して脆弱になります。
新しい推論タスクは、ノイズの多い Positive-Unlabeled 学習問題として定式化されます。
私たちは、収集されたファクトと収集されなかったファクト (これを \textit{label posterior} と呼びます) の両方の正確さを共同で推定し、トレーニング中にモデル パラメーターを更新する変分フレームワーク、つまり nPUGraph を提案します。
ラベル事後推定は、2 つの観点からの推測推論を容易にします。
まず、誤検知リンクに対するラベル事後認識グラフ エンコーダーの堅牢性が向上します。
次に、欠落している事実を特定して、質の高い推論の根拠を提供します。
これらは、シンプルかつ効果的な自己トレーニング手順に統合されています。
経験的には、3 つのベンチマーク KG と 1 つの Twitter データセットでさまざまな程度の偽陰性/偽陽性のケースを使用した広範な実験により、nPUGraph の有効性が実証されています。
要約(オリジナル)
This paper studies speculative reasoning task on real-world knowledge graphs (KG) that contain both \textit{false negative issue} (i.e., potential true facts being excluded) and \textit{false positive issue} (i.e., unreliable or outdated facts being included). State-of-the-art methods fall short in the speculative reasoning ability, as they assume the correctness of a fact is solely determined by its presence in KG, making them vulnerable to false negative/positive issues. The new reasoning task is formulated as a noisy Positive-Unlabeled learning problem. We propose a variational framework, namely nPUGraph, that jointly estimates the correctness of both collected and uncollected facts (which we call \textit{label posterior}) and updates model parameters during training. The label posterior estimation facilitates speculative reasoning from two perspectives. First, it improves the robustness of a label posterior-aware graph encoder against false positive links. Second, it identifies missing facts to provide high-quality grounds of reasoning. They are unified in a simple yet effective self-training procedure. Empirically, extensive experiments on three benchmark KG and one Twitter dataset with various degrees of false negative/positive cases demonstrate the effectiveness of nPUGraph.
arxiv情報
著者 | Ruijie Wang,Baoyu Li,Yichen Lu,Dachun Sun,Jinning Li,Yuchen Yan,Shengzhong Liu,Hanghang Tong,Tarek F. Abdelzaher |
発行日 | 2023-06-13 02:43:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google