Intensity-free Integral-based Learning of Marked Temporal Point Processes

要約

マーク付き時間点過程(MTPP)では、イベント間時間$t$とマーク$m$に対する条件付き結合PDF(確率分布関数)$p^*(m,t)$を、履歴を条件としてパラメータ化することが中心的な問題となる。既存の研究の大部分は、強度関数をあらかじめ定義している。その有用性は、強度関数の適切な形式を指定することによって問われる。最近、$p^*(t)$と$p^*(m)$を別々にモデル化する研究と、マークを考慮しない時間点過程(TPP)に注目する研究がある。本研究は、イベントマークが多次元連続空間におけるカテゴリーか数値の離散イベントに対して、忠実度の高い$p^*(m,t)$を開発することを目的とする。我々は、条件付き結合PDF $p^*(m,t)$ を強度関数を用いずに直接モデル化する解の枠組みIFIB (\underline{I}ntensity-underline{f}ree \underline{I}ntegral-underline{b}ased process) を提案する。これは、本質的な数学的制約を強制するために、過程を著しく単純化する。IFIBの望ましい性質と、実世界と合成データセットにおけるIFIBの優れた実験結果を示す。このコードは 〚https://github.com/StepinSilence/IFIB 〛 に掲載されています。

要約(オリジナル)

In the marked temporal point processes (MTPP), a core problem is to parameterize the conditional joint PDF (probability distribution function) $p^*(m,t)$ for inter-event time $t$ and mark $m$, conditioned on the history. The majority of existing studies predefine intensity functions. Their utility is challenged by specifying the intensity function’s proper form, which is critical to balance expressiveness and processing efficiency. Recently, there are studies moving away from predefining the intensity function — one models $p^*(t)$ and $p^*(m)$ separately, while the other focuses on temporal point processes (TPPs), which do not consider marks. This study aims to develop high-fidelity $p^*(m,t)$ for discrete events where the event marks are either categorical or numeric in a multi-dimensional continuous space. We propose a solution framework IFIB (\underline{I}ntensity-\underline{f}ree \underline{I}ntegral-\underline{b}ased process) that models conditional joint PDF $p^*(m,t)$ directly without intensity functions. It remarkably simplifies the process to compel the essential mathematical restrictions. We show the desired properties of IFIB and the superior experimental results of IFIB on real-world and synthetic datasets. The code is available at \url{https://github.com/StepinSilence/IFIB}.

arxiv情報

著者 Sishun Liu,Ke Deng,Jenny Zhang,Yongli Ren
発行日 2023-08-04 14:52:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, stat.ML パーマリンク