要約
規範的なプロセス監視手法は、実行時に介入をトリガーすることでビジネス プロセスのパフォーマンスを最適化することを目的としており、それによってケースの肯定的な結果が得られる可能性が高まります。
これらの介入は、介入ポリシーに従ってトリガーされます。
強化学習は、試行錯誤を通じて介入ポリシーを学習するアプローチとして提唱されています。
この分野における既存のアプローチは、プロセスへの介入を実行するために利用できるリソースの数が無制限であることを前提としていますが、実際には非現実的な前提です。
この論文は、リソースの制約が存在する場合、規範的プロセスモニタリングの分野における重要なジレンマは、介入の必要性、適時性、または効果の予測だけでなく、これらの予測の不確実性とレベルにも基づいて介入を引き起こすことであると主張しています。
リソースの使用率。
実際、介入の必要性や効果が非常に不確実な場合に、乏しいリソースを介入に投入すると、直感的に次善の介入効果が得られる可能性があります。
したがって、この論文では、介入決定の基礎となる予測の不確実性を考慮する等角予測技術を活用する、規範的なプロセスモニタリングのための強化学習アプローチを提案します。
実際のデータセットを使用した評価では、等角予測を使用して不確実性を明示的にモデル化することで、強化学習エージェントがより高い正味介入利得を伴うポリシーに収束するのに役立つことが実証されました
要約(オリジナル)
Prescriptive process monitoring methods seek to optimize the performance of business processes by triggering interventions at runtime, thereby increasing the probability of positive case outcomes. These interventions are triggered according to an intervention policy. Reinforcement learning has been put forward as an approach to learning intervention policies through trial and error. Existing approaches in this space assume that the number of resources available to perform interventions in a process is unlimited, an unrealistic assumption in practice. This paper argues that, in the presence of resource constraints, a key dilemma in the field of prescriptive process monitoring is to trigger interventions based not only on predictions of their necessity, timeliness, or effect but also on the uncertainty of these predictions and the level of resource utilization. Indeed, committing scarce resources to an intervention when the necessity or effects of this intervention are highly uncertain may intuitively lead to suboptimal intervention effects. Accordingly, the paper proposes a reinforcement learning approach for prescriptive process monitoring that leverages conformal prediction techniques to consider the uncertainty of the predictions upon which an intervention decision is based. An evaluation using real-life datasets demonstrates that explicitly modeling uncertainty using conformal predictions helps reinforcement learning agents converge towards policies with higher net intervention gain
arxiv情報
著者 | Mahmoud Shoush,Marlon Dumas |
発行日 | 2023-07-13 05:31:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google