rLLM: Relational Table Learning with LLMs

要約

大規模言語モデル (LLM) を使用したリレーショナル テーブル学習 (RTL) 用に設計された PyTorch ライブラリである rLLM (relationLLM) を紹介します。
中心的なアイデアは、最先端のグラフ ニューラル ネットワーク、LLM、およびテーブル ニューラル ネットワークを標準化されたモジュールに分解し、単純な「結合、調整、および同時トレーニング」で新しい RTL タイプのモデルを迅速に構築できるようにすることです。
』のやり方。
rLLM の使用法を説明するために、\textbf{BRIDGE} という名前の単純な RTL メソッドを紹介します。
さらに、古典的なデータセットを拡張することにより、3 つの新しいリレーショナル表形式データセット (TML1M、TLF2K、および TACM12K) を紹介します。
私たちは、rLLM が RTL 関連タスクのための便利で使いやすい開発フレームワークとして機能できることを願っています。
コードは https://github.com/rllm-project/rllm から入手できます。

要約(オリジナル)

We introduce rLLM (relationLLM), a PyTorch library designed for Relational Table Learning (RTL) with Large Language Models (LLMs). The core idea is to decompose state-of-the-art Graph Neural Networks, LLMs, and Table Neural Networks into standardized modules, to enable the fast construction of novel RTL-type models in a simple ‘combine, align, and co-train’ manner. To illustrate the usage of rLLM, we introduce a simple RTL method named \textbf{BRIDGE}. Additionally, we present three novel relational tabular datasets (TML1M, TLF2K, and TACM12K) by enhancing classic datasets. We hope rLLM can serve as a useful and easy-to-use development framework for RTL-related tasks. Our code is available at: https://github.com/rllm-project/rllm.

arxiv情報

著者 Weichen Li,Xiaotong Huang,Jianwu Zheng,Zheng Wang,Chaokun Wang,Li Pan,Jianhua Li
発行日 2024-07-29 16:33:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク