要約
動的タスク割り当てでは、到着したタスクを限られた数のリソースに割り当てることで、割り当ての全体的なコストを最小にすることができる。最適なタスク割り当てを実現するためには、まず割り当て問題をモデル化することが必要である。マルコフ決定過程やペトリネットなど、この問題の異なる側面をモデル化し、実行し、解決するための個別の形式が存在する一方で、統合的なモデル化技術は存在しない。このギャップに対処するため、本論文では、動的なタスク割り当て問題をモデル化し解決するためのフレームワークとして、Action-Evolution Petri Nets (A-E PN)を提案する。A-E PNは、動的タスク割り当て問題のすべての要素を表現できる統一的なモデリング技法を提供する。さらに、A-E PNは実行可能なモデルであるため、追加のモデリング作業を行うことなく、強化学習(RL)により最適に近い割り当て方針を学習することが可能であることを意味する。このフレームワークを評価するために、典型的な割り当て問題のタクソノミーを定義する。そして、3つのケースについて、A-E PNが最適に近い割り当て方針を学習することができることを示す。この結果は、A-E PNが広範な動的タスク割り当て問題のモデル化と解決に利用できることを示唆している。
要約(オリジナル)
Dynamic task assignment involves assigning arriving tasks to a limited number of resources in order to minimize the overall cost of the assignments. To achieve optimal task assignment, it is necessary to model the assignment problem first. While there exist separate formalisms, specifically Markov Decision Processes and (Colored) Petri Nets, to model, execute, and solve different aspects of the problem, there is no integrated modeling technique. To address this gap, this paper proposes Action-Evolution Petri Nets (A-E PN) as a framework for modeling and solving dynamic task assignment problems. A-E PN provides a unified modeling technique that can represent all elements of dynamic task assignment problems. Moreover, A-E PN models are executable, which means they can be used to learn close-to-optimal assignment policies through Reinforcement Learning (RL) without additional modeling effort. To evaluate the framework, we define a taxonomy of archetypical assignment problems. We show for three cases that A-E PN can be used to learn close-to-optimal assignment policies. Our results suggest that A-E PN can be used to model and solve a broad range of dynamic task assignment problems.
arxiv情報
| 著者 | Riccardo Lo Bianco,Remco Dijkman,Wim Nuijten,Willem van Jaarsveld |
| 発行日 | 2023-06-05 14:14:48+00:00 |
| arxivサイト | arxiv_id(pdf) |