要約
この論文では、ナレッジ グラフ表現から一般的なグラフ ノードの埋め込みを生成する方法について説明します。
埋め込み空間は、ローカル アフィニティとリモート構造関連性の両方を模倣する多数のサブフィーチャで構成されています。
これらのサブ特徴の次元は、ホップベースのトポロジー パターン、重複するラベルの数、遷移確率 (マルコフチェーン確率)、再帰的アルゴリズムによって計算されたクラスター インデックスなど、ノードの類似性を捉えるために推測されるいくつかの指標によって定義されます。
スペクトル二分法 (RSB) アルゴリズム。
これらの測定値は、1 次元ベクトル空間上でそれぞれのサブコンポーネント範囲に平坦化され、ベクトル類似度関数のセット全体を類似ノードの検索に使用できるようになります。
誤差は、ランダムに選択されたグラフ ノードのサンプルにわたる、仮定された埋め込みと新しい損失関数としてのグラウンド トゥルース推定値の間のペアごとの二乗差の合計によって定義されます。
グランド トゥルースは、ペアごとの Jaccard 類似性と重複するラベルの数の組み合わせであると推定されます。
最後に、ランダム サンプリング ロジックを使用して平均誤差を最小限に抑えるために、サブベクトル空間間の重み付け係数を計算する多変量確率的勾配降下法 (SGD) アルゴリズムを示します。
要約(オリジナル)
This paper discusses how to generate general graph node embeddings from knowledge graph representations. The embedded space is composed of a number of sub-features to mimic both local affinity and remote structural relevance. These sub-feature dimensions are defined by several indicators that we speculate to catch nodal similarities, such as hop-based topological patterns, the number of overlapping labels, the transitional probabilities (markov-chain probabilities), and the cluster indices computed by our recursive spectral bisection (RSB) algorithm. These measures are flattened over the one dimensional vector space into their respective sub-component ranges such that the entire set of vector similarity functions could be used for finding similar nodes. The error is defined by the sum of pairwise square differences across a randomly selected sample of graph nodes between the assumed embeddings and the ground truth estimates as our novel loss function. The ground truth is estimated to be a combination of pairwise Jaccard similarity and the number of overlapping labels. Finally, we demonstrate a multi-variate stochastic gradient descent (SGD) algorithm to compute the weighing factors among sub-vector spaces to minimize the average error using a random sampling logic.
arxiv情報
著者 | B. Kaan Karamete,Eli Glaser |
発行日 | 2024-12-17 16:25:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google