History repeats itself: A Baseline for Temporal Knowledge Graph Forecasting

要約

テンポラル ナレッジ グラフ (TKG) 予測は、ナレッジ グラフの履歴に基づいて、将来のタイムステップのナレッジ グラフ内のリンクを予測することを目的としています。
今日に至るまで、標準化された評価プロトコルと TKG モデル間の厳密な比較が利用可能ですが、評価では単純なベースラインの重要性が無視されることが多く、研究者が実際の進捗状況と架空の進捗状況を識別することができません。
私たちは、繰り返し発生する事実の予測に基づいて TKG Forecasting の直感的なベースラインを設計することで、このギャップを埋めることを提案します。
ほとんどの TKG モデルと比較して、ハイパーパラメーターの調整はほとんど必要なく、反復トレーニングも必要ありません。
さらに、既存のアプローチにおける障害モードを特定するのにも役立ちます。
経験的結果はまったく予想外でした。5 つのデータセットに対する 11 の方法と比較して、私たちのベースラインはそのうち 3 つで 1 位か 3 位にランクされており、最先端の予測品質について根本的に異なる状況を描いています。

要約(オリジナル)

Temporal Knowledge Graph (TKG) Forecasting aims at predicting links in Knowledge Graphs for future timesteps based on a history of Knowledge Graphs. To this day, standardized evaluation protocols and rigorous comparison across TKG models are available, but the importance of simple baselines is often neglected in the evaluation, which prevents researchers from discerning actual and fictitious progress. We propose to close this gap by designing an intuitive baseline for TKG Forecasting based on predicting recurring facts. Compared to most TKG models, it requires little hyperparameter tuning and no iterative training. Further, it can help to identify failure modes in existing approaches. The empirical findings are quite unexpected: compared to 11 methods on five datasets, our baseline ranks first or third in three of them, painting a radically different picture of the predictive quality of the state of the art.

arxiv情報

著者 Julia Gastinger,Christian Meilicke,Federico Errica,Timo Sztyler,Anett Schuelke,Heiner Stuckenschmidt
発行日 2024-04-25 16:39:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク