Query-Aware Learnable Graph Pooling Tokens as Prompt for Large Language Models

要約

グラフ構造のデータは、ソーシャルネットワーク、引用ネットワーク、常識的な推論グラフ、知識グラフなど、多くのドメインで重要な役割を果たします。
グラフニューラルネットワークはグラフ処理に採用されていますが、最近の進歩により、グラフベースのタスクの大規模な言語モデルの統合が検討されています。
この論文では、ノードレベルの投影におけるスケーラビリティ問題の制限とグラフレベルの投影の情報損失に対処する学習可能なグラフプーリングトークン(LGPT)という名前の新しいアプローチを提案します。
LGPTは、大規模な言語モデルのトークンとして機能する学習可能なパラメーターを導入し、細粒およびグローバルなグラフ情報のバランスをとることにより、柔軟で効率的なグラフ表現を可能にします。
さらに、グラフ表現を構築する前にクエリコンテキストを融合し、より効果的なグラフ埋め込みにつながる初期クエリ融合技術を調査します。
私たちの方法は、大規模な言語モデルをトレーニングすることなく、GraphQAベンチマークの4.13 \%のパフォーマンス改善を実現し、複雑なテキストに関連するグラフデータの処理に大幅な利益を示します。

要約(オリジナル)

Graph-structured data plays a vital role in numerous domains, such as social networks, citation networks, commonsense reasoning graphs and knowledge graphs. While graph neural networks have been employed for graph processing, recent advancements have explored integrating large language models for graph-based tasks. In this paper, we propose a novel approach named Learnable Graph Pooling Token (LGPT), which addresses the limitations of the scalability issues in node-level projection and information loss in graph-level projection. LGPT enables flexible and efficient graph representation by introducing learnable parameters that act as tokens in large language models, balancing fine-grained and global graph information. Additionally, we investigate an Early Query Fusion technique, which fuses query context before constructing the graph representation, leading to more effective graph embeddings. Our method achieves a 4.13\% performance improvement on the GraphQA benchmark without training the large language model, demonstrating significant gains in handling complex textual-attributed graph data.

arxiv情報

著者 Wooyoung Kim,Byungyoon Park,Wooju Kim
発行日 2025-01-29 10:35:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク