要約
少数ショット ナレッジ グラフ補完 (FKGC) は、少数ショットの参照エンティティ ペアが与えられた関係の目に見えない事実をクエリすることを目的としています。
エンティティやトリプルの不確実性によるノイズの副作用により、少数ショット学習が制限される可能性がありますが、既存の FKGC 作品はそのような不確実性を無視しているため、ノイズを含む限られた参照サンプルの影響を受けやすくなります。
この論文では、ガウス分布の下で表現を学習することによって限られたデータをよりよく理解するために不確実性をモデル化するための、新しい不確実性を意識した少数ショット KG 補完フレームワーク (UFKGC) を提案します。
不確実性表現は、特徴表現をガウス分布に変換した後、エンティティ ペアの不確実性範囲を推定するために最初に設計されています。
さらに、エンティティ特徴の不確実性特性を備えた近傍をより適切に統合するために、ガウス分布間の畳み込み演算を実行する不確実性認識リレーショナル グラフ ニューラル ネットワーク (UR-GNN) を設計します。
次に、最適化中に滑らかな参照表現を生成するために、ガウス分布内の参照トリプルに対して複数のランダム サンプリングが実行されます。
各クエリ インスタンスの最終的な完了スコアは、数ショットのシナリオにおけるノイズに対するアプローチをより堅牢にするために、設計された不確実性の最適化によって測定されます。
実験結果は、私たちのアプローチが競合他社と比較して 2 つのベンチマーク データセットで優れたパフォーマンスを達成していることを示しています。
要約(オリジナル)
Few-shot knowledge graph completion (FKGC) aims to query the unseen facts of a relation given its few-shot reference entity pairs. The side effect of noises due to the uncertainty of entities and triples may limit the few-shot learning, but existing FKGC works neglect such uncertainty, which leads them more susceptible to limited reference samples with noises. In this paper, we propose a novel uncertainty-aware few-shot KG completion framework (UFKGC) to model uncertainty for a better understanding of the limited data by learning representations under Gaussian distribution. Uncertainty representation is first designed for estimating the uncertainty scope of the entity pairs after transferring feature representations into a Gaussian distribution. Further, to better integrate the neighbors with uncertainty characteristics for entity features, we design an uncertainty-aware relational graph neural network (UR-GNN) to conduct convolution operations between the Gaussian distributions. Then, multiple random samplings are conducted for reference triples within the Gaussian distribution to generate smooth reference representations during the optimization. The final completion score for each query instance is measured by the designed uncertainty optimization to make our approach more robust to the noises in few-shot scenarios. Experimental results show that our approach achieves excellent performance on two benchmark datasets compared to its competitors.
arxiv情報
著者 | Qian Li,Shu Guo,Yingjia Chen,Cheng Ji,Jiawei Sheng,Jianxin Li |
発行日 | 2024-03-07 14:23:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google