A Framework for Streaming Event-Log Prediction in Business Processes

要約

ストリーミング モードでのイベント ログ予測のための Python ベースのフレームワークを紹介し、ビジネス プロセスによってデータが生成されている間に予測を可能にします。
このフレームワークにより、n グラムや LSTM などの言語モデルを含むストリーミング アルゴリズムの簡単な統合が可能になり、アンサンブル手法を使用してこれらの予測子を組み合わせることができます。
私たちのフレームワークを使用して、さまざまなよく知られたプロセス マイニング データセットに対して実験を実施し、従来のバッチとストリーミング モードを比較しました。
バッチ モードでは、LSTM は通常最高のパフォーマンスを達成しますが、多くの場合、精度が非常に近い N グラムが存在します。
アンサンブル手法で基本モデルを組み合わせると、LSTM を上回るパフォーマンスを発揮することもあります。
LSTM に関する基本モデルの価値は、ストリーミング モードでさらに明らかになります。ストリーミング モードでは、基本的な方法では適切な予測が即座に行われるのに対し、LSTM は一般に予測実行の初期段階では精度が欠如します。

要約(オリジナル)

We present a Python-based framework for event-log prediction in streaming mode, enabling predictions while data is being generated by a business process. The framework allows for easy integration of streaming algorithms, including language models like n-grams and LSTMs, and for combining these predictors using ensemble methods. Using our framework, we conducted experiments on various well-known process-mining data sets and compared classical batch with streaming mode. Though, in batch mode, LSTMs generally achieve the best performance, there is often an n-gram whose accuracy comes very close. Combining basic models in ensemble methods can even outperform LSTMs. The value of basic models with respect to LSTMs becomes even more apparent in streaming mode, where LSTMs generally lack accuracy in the early stages of a prediction run, while basic methods make sensible predictions immediately.

arxiv情報

著者 Benedikt Bollig,Matthias Függer,Thomas Nowak
発行日 2024-12-20 16:29:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク