Distilling Event Sequence Knowledge From Large Language Models

要約

イベント シーケンス モデルは、イベントの分析と予測において非常に効果的であることがわかっています。
このようなモデルを構築するには、豊富な高品質のイベント シーケンス データが利用できる必要があります。
ただし、特定のアプリケーションでは、きれいに構造化されたイベント シーケンスが利用できず、自動シーケンス抽出の結果、ノイズが多すぎて不完全なデータが生成されます。
この研究では、確率的イベント モデルの構築に効果的に使用できるイベント シーケンスを生成するための大規模言語モデル (LLM) の使用を検討します。
これは、LLM からイベント シーケンスの知識を抽出するメカニズムとみなすことができます。
私たちのアプローチは、部分的な因果関係を持つイベント概念のナレッジ グラフ (KG) に依存し、因果イベント シーケンス生成のための生成言語モデルをガイドします。
私たちのアプローチが高品質のイベント シーケンスを生成し、入力 KG の知識ギャップを埋めることができることを示します。
さらに、生成されたシーケンスを活用して、パターン マイニングと確率的イベント モデルから有用でより複雑な構造化された知識を発見する方法を探ります。
シーケンス生成コードと評価フレームワーク、およびイベント シーケンス データのコーパスをリリースします。

要約(オリジナル)

Event sequence models have been found to be highly effective in the analysis and prediction of events. Building such models requires availability of abundant high-quality event sequence data. In certain applications, however, clean structured event sequences are not available, and automated sequence extraction results in data that is too noisy and incomplete. In this work, we explore the use of Large Language Models (LLMs) to generate event sequences that can effectively be used for probabilistic event model construction. This can be viewed as a mechanism of distilling event sequence knowledge from LLMs. Our approach relies on a Knowledge Graph (KG) of event concepts with partial causal relations to guide the generative language model for causal event sequence generation. We show that our approach can generate high-quality event sequences, filling a knowledge gap in the input KG. Furthermore, we explore how the generated sequences can be leveraged to discover useful and more complex structured knowledge from pattern mining and probabilistic event models. We release our sequence generation code and evaluation framework, as well as corpus of event sequence data.

arxiv情報

著者 Somin Wadhwa,Oktie Hassanzadeh,Debarun Bhattacharjya,Ken Barker,Jian Ni
発行日 2024-02-06 14:50:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク