SPARE: A Single-Pass Neural Model for Relational Databases

要約

画像やテキストのディープ ニューラル ネットワークについては広範な研究が行われてきましたが、リレーショナル データベース (RDB) のディープ ラーニングはまだ未開発の分野です。
最近注目を集めている方向性の 1 つは、グラフ ニューラル ネットワーク (GNN) を RBD に適用することです。
ただし、大規模なリレーショナル データベース (つまり、複数のデータベース テーブルに格納されているデータ) で GNN をトレーニングすることは、トレーニングが複数ラウンド行われ、表現が大きく非効率になる可能性があるため、むしろ非効率的です。
したがって、この論文では、GNN と同様の精度を提供しながら、RDB 上で効率的にトレーニングできる新しいクラスのニューラル モデルである SPARE (シングルパス リレーショナル モデル) を提案します。
GNN とは異なり、SPARE は効率的なトレーニングを可能にするために、RDB 内のデータが規則的な構造を持っているという事実を利用しており、これにより対称性を同時に活用しながらこれらのモデルをシングル パスでトレーニングすることができます。
私たちの広範な経験的評価は、SPARE がトレーニングと推論の両方を大幅に高速化し、多数のベースラインにわたって競争力のある予測パフォーマンスを提供できることを示しています。

要約(オリジナル)

While there has been extensive work on deep neural networks for images and text, deep learning for relational databases (RDBs) is still a rather unexplored field. One direction that recently gained traction is to apply Graph Neural Networks (GNNs) to RBDs. However, training GNNs on large relational databases (i.e., data stored in multiple database tables) is rather inefficient due to multiple rounds of training and potentially large and inefficient representations. Hence, in this paper we propose SPARE (Single-Pass Relational models), a new class of neural models that can be trained efficiently on RDBs while providing similar accuracies as GNNs. For enabling efficient training, different from GNNs, SPARE makes use of the fact that data in RDBs has a regular structure, which allows one to train these models in a single pass while exploiting symmetries at the same time. Our extensive empirical evaluation demonstrates that SPARE can significantly speedup both training and inference while offering competitive predictive performance over numerous baselines.

arxiv情報

著者 Benjamin Hilprecht,Kristian Kersting,Carsten Binnig
発行日 2023-10-20 15:23:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DB パーマリンク