要約
動的タスク割り当てでは、割り当ての全体コストを最小限に抑えるために、到着したタスクを限られた数のリソースに割り当てます。
最適なタスク割り当てを実現するには、最初に割り当て問題をモデル化する必要があります。
問題のさまざまな側面をモデル化し、実行し、解決するための個別の形式主義、特にマルコフ決定プロセスと (色付き) ペトリ ネットが存在しますが、統合されたモデリング手法はありません。
このギャップに対処するために、この論文では、動的なタスク割り当て問題をモデル化して解決するためのフレームワークとして、Action-Evolution Petri Nets (A-E PN) を提案します。
A-E PN は、動的タスク割り当て問題のすべての要素を表現できる統合モデリング手法を提供します。
さらに、A-E PN モデルは実行可能であるため、追加のモデリング作業を行わずに、強化学習 (RL) を通じて最適に近い割り当てポリシーを学習するために使用できます。
フレームワークを評価するために、典型的な割り当て問題の分類を定義します。
3 つのケースについて、A-E PN を使用して最適に近い割り当てポリシーを学習できることを示します。
私たちの結果は、A-E PN を使用して広範囲の動的タスク割り当て問題をモデル化し、解決できることを示唆しています。
要約(オリジナル)
Dynamic task assignment involves assigning arriving tasks to a limited number of resources in order to minimize the overall cost of the assignments. To achieve optimal task assignment, it is necessary to model the assignment problem first. While there exist separate formalisms, specifically Markov Decision Processes and (Colored) Petri Nets, to model, execute, and solve different aspects of the problem, there is no integrated modeling technique. To address this gap, this paper proposes Action-Evolution Petri Nets (A-E PN) as a framework for modeling and solving dynamic task assignment problems. A-E PN provides a unified modeling technique that can represent all elements of dynamic task assignment problems. Moreover, A-E PN models are executable, which means they can be used to learn close-to-optimal assignment policies through Reinforcement Learning (RL) without additional modeling effort. To evaluate the framework, we define a taxonomy of archetypical assignment problems. We show for three cases that A-E PN can be used to learn close-to-optimal assignment policies. Our results suggest that A-E PN can be used to model and solve a broad range of dynamic task assignment problems.
arxiv情報
著者 | Riccardo Lo Bianco,Remco Dijkman,Wim Nuijten,Willem van Jaarsveld |
発行日 | 2023-06-06 11:41:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google