要約
エンティティ アライメント (EA) は、現実世界の同じアイデンティティを参照する、異なるナレッジ グラフ (KG) 間で同等のエンティティ ペアを識別することを目的としています。
擬似ラベリングベースのエンティティ整列に対する確証バイアスに体系的に対処するために、擬似ラベリング エラーを明示的に排除してエンティティ整列の精度を高める、エンティティ整列のための統一擬似ラベリング フレームワーク (UPL-EA) を提案します。
UPL-EA は 2 つの補完的なコンポーネントで構成されます。 (1) 最適トランスポート (OT) ベースの擬似ラベリングは、2 つの KG にわたるエンティティの対応関係をより正確に決定できるようにし、誤りによる悪影響を軽減する効果的な手段として離散 OT モデリングを使用します。
一致します。
シンプルだが非常に効果的な基準がさらに考案され、各反復で 1 対 1 の対応を満たす擬似ラベル付きエンティティのペアが導出されます。
(2) クロスイテレーション擬似ラベルキャリブレーションは、複数の連続するイテレーションにわたって動作し、理論上の保証により局所的な擬似ラベル選択のばらつきを低減することにより、擬似ラベルの精度率をさらに向上させます。
2 つのコンポーネントはそれぞれ、分析を通じて特定されたタイプ I およびタイプ II の疑似ラベル付けエラーを排除するように設計されています。
その後、調整された擬似ラベルは、以前のアライメント シードを拡張して、アライメント推論のための後続のモデル トレーニングを強化するために使用されます。
疑似ラベル付けエラーを排除する UPL-EA の有効性は理論的にも裏付けられており、実験的にも検証されています。
実験結果は、私たちのアプローチが、限られた事前アライメントシードで競争力のあるパフォーマンスを達成することを示しています。
要約(オリジナル)
Entity alignment (EA) aims at identifying equivalent entity pairs across different knowledge graphs (KGs) that refer to the same real-world identity. To systematically combat confirmation bias for pseudo-labeling-based entity alignment, we propose a Unified Pseudo-Labeling framework for Entity Alignment (UPL-EA) that explicitly eliminates pseudo-labeling errors to boost the accuracy of entity alignment. UPL-EA consists of two complementary components: (1) The Optimal Transport (OT)-based pseudo-labeling uses discrete OT modeling as an effective means to enable more accurate determination of entity correspondences across two KGs and to mitigate the adverse impact of erroneous matches. A simple but highly effective criterion is further devised to derive pseudo-labeled entity pairs that satisfy one-to-one correspondences at each iteration. (2) The cross-iteration pseudo-label calibration operates across multiple consecutive iterations to further improve the pseudo-labeling precision rate by reducing the local pseudo-label selection variability with a theoretical guarantee. The two components are respectively designed to eliminate Type I and Type II pseudo-labeling errors identified through our analyse. The calibrated pseudo-labels are thereafter used to augment prior alignment seeds to reinforce subsequent model training for alignment inference. The effectiveness of UPL-EA in eliminating pseudo-labeling errors is both theoretically supported and experimentally validated. The experimental results show that our approach achieves competitive performance with limited prior alignment seeds.
arxiv情報
著者 | Qijie Ding,Jie Yin,Daokun Zhang,Junbin Gao |
発行日 | 2023-07-05 07:32:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google