要約
トリプルで構成されるナレッジ グラフ (KG) は本質的に不完全であり、欠落しているトリプルを予測するには常に完了手順が必要です。
実際のシナリオでは、KG はクライアント間で分散され、プライバシー制限により完了タスクが複雑になります。
フェデレーテッド・ナレッジ・グラフの完成の問題に対処するために、多くのフレームワークが提案されています。
ただし、FedE、FedR、FEKG などの既存のフレームワークには一定の制限があります。
= FedE には情報漏洩のリスクがあり、関係間の重複が最小限になると FedR の最適化効果が低下し、FKGE は計算コストとモード崩壊の問題に悩まされます。
これらの問題に対処するために、我々は新しい方法、つまり、KG の完了に連合テンソル因数分解を使用する新しいアプローチである Federated Latent Embedding Sharing Tensor 因数分解 (FLEST) を提案します。
FLEST は埋め込み行列を分解し、潜在辞書埋め込みの共有を可能にしてプライバシー リスクを軽減します。
実証結果は、FLEST の有効性と効率性を実証し、パフォーマンスとプライバシーのバランスの取れたソリューションを提供します。
FLEST は、KG 完了タスクにおける連合テンソル因数分解のアプリケーションを拡張します。
要約(オリジナル)
Knowledge graphs (KGs), which consist of triples, are inherently incomplete and always require completion procedure to predict missing triples. In real-world scenarios, KGs are distributed across clients, complicating completion tasks due to privacy restrictions. Many frameworks have been proposed to address the issue of federated knowledge graph completion. However, the existing frameworks, including FedE, FedR, and FEKG, have certain limitations. = FedE poses a risk of information leakage, FedR’s optimization efficacy diminishes when there is minimal overlap among relations, and FKGE suffers from computational costs and mode collapse issues. To address these issues, we propose a novel method, i.e., Federated Latent Embedding Sharing Tensor factorization (FLEST), which is a novel approach using federated tensor factorization for KG completion. FLEST decompose the embedding matrix and enables sharing of latent dictionary embeddings to lower privacy risks. Empirical results demonstrate FLEST’s effectiveness and efficiency, offering a balanced solution between performance and privacy. FLEST expands the application of federated tensor factorization in KG completion tasks.
arxiv情報
著者 | Maolin Wang,Dun Zeng,Zenglin Xu,Ruocheng Guo,Xiangyu Zhao |
発行日 | 2023-11-17 06:03:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google