Tackling prediction tasks in relational databases with LLMs

要約

大規模言語モデル (LLM) は、数多くの問題に対して優れたパフォーマンスを示していますが、リレーショナル データベースの予測タスクへの応用はほとんど解明されていません。
この研究では、LLM は相互接続されたテーブル、複雑な関係、および異種データ型のため、リレーショナル データベースでは満足のいく結果を生み出すことができないという概念に取り組みます。
最近導入された RelBench ベンチマークを使用して、LLM の単純なアプリケーションでもこれらのタスクで競争力のあるパフォーマンスを達成できることを実証します。
これらの発見により、LLM がリレーショナル データベース上の ML の有望な新しいベースラインとして確立され、この方向でのさらなる研究が促進されます。

要約(オリジナル)

Though large language models (LLMs) have demonstrated exceptional performance across numerous problems, their application to predictive tasks in relational databases remains largely unexplored. In this work, we address the notion that LLMs cannot yield satisfactory results on relational databases due to their interconnected tables, complex relationships, and heterogeneous data types. Using the recently introduced RelBench benchmark, we demonstrate that even a straightforward application of LLMs achieves competitive performance on these tasks. These findings establish LLMs as a promising new baseline for ML on relational databases and encourage further research in this direction.

arxiv情報

著者 Marek Wydmuch,Łukasz Borchmann,Filip Graliński
発行日 2024-11-18 18:48:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.DB, cs.LG パーマリンク