Stackelberg Game-Theoretic Learning for Collaborative Assembly Task Planning

要約

組み立てタスクが複雑になるにつれて、タスクを完了するには複数のロボット間の協力が不可欠になります。
しかし、一元的なタスク計画では、ロボットの知能と多用途性の向上、およびカスタマイズ注文の増加に適応するには不十分になってきています。
共同組み立てのために多様なロボットを調整できる、効率的で自動化された計画メカニズムが必要です。
この目的を達成するために、我々は Stackelberg ゲーム理論的学習アプローチを提案します。
Stackelberg ゲームを活用することで、リーダーとフォロワーの相互作用を通じてロボットのコラボレーションを特徴づけ、戦略探索を強化し、タスクを確実に完了します。
タスク全体での適用性を高めるために、新しいマルチエージェント学習アルゴリズムである Stackelberg ダブルディープ Q ラーニングを導入します。これにより、自動組立戦略探索とマルチロボット調整が容易になります。
私たちのアプローチは、シミュレーションされた組み立てタスクを通じて検証されます。
3 つの代替マルチエージェント学習方法と比較すると、私たちのアプローチがタスクのタスク完了時間を最短にすることがわかります。
さらに、私たちのアプローチは、偶発的および意図的な環境摂動の両方に対して堅牢性を示します。

要約(オリジナル)

As assembly tasks grow in complexity, collaboration among multiple robots becomes essential for task completion. However, centralized task planning has become inadequate for adapting to the increasing intelligence and versatility of robots, along with rising customized orders. There is a need for efficient and automated planning mechanisms capable of coordinating diverse robots for collaborative assembly. To this end, we propose a Stackelberg game-theoretic learning approach. By leveraging Stackelberg games, we characterize robot collaboration through leader-follower interaction to enhance strategy seeking and ensure task completion. To enhance applicability across tasks, we introduce a novel multi-agent learning algorithm: Stackelberg double deep Q-learning, which facilitates automated assembly strategy seeking and multi-robot coordination. Our approach is validated through simulated assembly tasks. Comparison with three alternative multi-agent learning methods shows that our approach achieves the shortest task completion time for tasks. Furthermore, our approach exhibits robustness against both accidental and deliberate environmental perturbations.

arxiv情報

著者 Yuhan Zhao,Lan Shi,Quanyan Zhu
発行日 2024-04-19 01:37:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GT, cs.MA, cs.RO パーマリンク