要約
ナレッジグラフ埋め込み(KGE)モデルは、知識グラフの構造情報を新しいリンクの予測にエンコードします。
これらのモデルの効果的なトレーニングには、正確な正確なサンプルと負のサンプルを区別する必要があります。
以前の研究では、負のサンプルの品質を改善することでモデルの精度が大幅に向上することが示されていますが、高品質の陰性サンプルを特定することは依然として困難な問題です。
このペーパーでは、負のサンプルが最適なKg埋め込みにつながる条件を理論的に調査し、効果的な負のサンプル分布のための十分な条件を特定します。
この理論的基盤に基づいて、\ textBf {e} mbedding \ textbf {mu} tation(\ textsc {emu})を提案します。これは、トレーニングの範囲を焦点を合わせた従来の方法とは対照的に、この状態を満たすネガティブなサンプルを{negate {nectifing}に焦点を当てたネガティブサンプルに焦点を当てた\ emphaplesを生成する}ネガティブサンプルを生成します。
重要なことに、\ textsc {emu}のシンプルさにより、既存のKGEモデルとネガティブサンプリング方法とのシームレスな統合が保証されます。
その有効性を評価するために、複数のデータセットで包括的な実験を実施しました。
結果は、さまざまなKGEモデルと否定的なサンプリング方法にわたるリンク予測パフォーマンスの大幅な改善を一貫して示しています。
特に、\ textSc {emu}は、寸法が5倍大きいモデルによって達成されたものに匹敵するパフォーマンスの改善を可能にします。
メソッドと実験の実装は、https://github.com/nec-research/emu-kgで入手できます。
要約(オリジナル)
Knowledge graph embedding (KGE) models encode the structural information of knowledge graphs to predicting new links. Effective training of these models requires distinguishing between positive and negative samples with high precision. Although prior research has shown that improving the quality of negative samples can significantly enhance model accuracy, identifying high-quality negative samples remains a challenging problem. This paper theoretically investigates the condition under which negative samples lead to optimal KG embedding and identifies a sufficient condition for an effective negative sample distribution. Based on this theoretical foundation, we propose \textbf{E}mbedding \textbf{MU}tation (\textsc{EMU}), a novel framework that \emph{generates} negative samples satisfying this condition, in contrast to conventional methods that focus on \emph{identifying} challenging negative samples within the training data. Importantly, the simplicity of \textsc{EMU} ensures seamless integration with existing KGE models and negative sampling methods. To evaluate its efficacy, we conducted comprehensive experiments across multiple datasets. The results consistently demonstrate significant improvements in link prediction performance across various KGE models and negative sampling methods. Notably, \textsc{EMU} enables performance improvements comparable to those achieved by models with embedding dimension five times larger. An implementation of the method and experiments are available at https://github.com/nec-research/EMU-KG.
arxiv情報
著者 | Makoto Takamoto,Daniel Oñoro-Rubio,Wiem Ben Rim,Takashi Maruyama,Bhushan Kotnis |
発行日 | 2025-04-04 10:10:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google