Retrieval of Temporal Event Sequences from Textual Descriptions

要約

テキスト記述から時間的イベントシーケンスを検索することは、電子商取引行動の分析、ソーシャルメディア活動の監視、犯罪事件の追跡などのアプリケーションにとって極めて重要である。このタスクを前進させるために、テキスト記述からの時間的イベントシーケンス検索(TESR)の包括的ベンチマークであるTESRBenchを紹介する。TESRBenchには、合成されレビューされたテキスト記述を持つ多様な実世界データセットが含まれており、検索性能を評価し、この分野の課題に取り組むための強力な基盤を提供する。このベンチマークを基に、イベントシーケンスを埋め込み検索するための新しいモデルであるTPP-Embeddingを提案する。このモデルはTPP-LLMフレームワークを活用し、大規模言語モデル(LLM)と時間点過程(TPP)を統合することで、イベントテキストと時間の両方を符号化する。表現をプールし、対照的な損失を適用することで、イベントシーケンスとその記述のシーケンスレベルの埋め込みを整列させ、共有された埋め込み空間において時間ダイナミクスとイベントのセマンティクスを統合する。TPP-Embeddingは、TESRBenchデータセットにおいて、ベースラインモデルよりも優れた性能を示し、時間イベントシーケンス検索タスクのための強力なソリューションとして確立した。

要約(オリジナル)

Retrieving temporal event sequences from textual descriptions is crucial for applications such as analyzing e-commerce behavior, monitoring social media activities, and tracking criminal incidents. To advance this task, we introduce TESRBench, a comprehensive benchmark for temporal event sequence retrieval (TESR) from textual descriptions. TESRBench includes diverse real-world datasets with synthesized and reviewed textual descriptions, providing a strong foundation for evaluating retrieval performance and addressing challenges in this domain. Building on this benchmark, we propose TPP-Embedding, a novel model for embedding and retrieving event sequences. The model leverages the TPP-LLM framework, integrating large language models (LLMs) with temporal point processes (TPPs) to encode both event texts and times. By pooling representations and applying a contrastive loss, it unifies temporal dynamics and event semantics in a shared embedding space, aligning sequence-level embeddings of event sequences and their descriptions. TPP-Embedding demonstrates superior performance over baseline models across TESRBench datasets, establishing it as a powerful solution for the temporal event sequence retrieval task.

arxiv情報

著者 Zefang Liu,Yinzhu Quan
発行日 2025-02-03 04:50:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.IR パーマリンク