要約
人間とロボットのコラボレーションにおける重要な問題の 1 つは、ロボットが人間の行動を予測して適応できるようにする計算モデルの開発です。
このようなモデルの開発や、ロボット工学における動作計画や意思決定の自律性の問題に対処する制御技術の開発において、多くの進歩が達成されています。
しかし、人間の行動の計算モデルとそのような制御技術の統合には依然として大きな課題があり、人間とロボットの効率的な協力チームにとってボトルネックとなっています。
これに関連して、人間とロボットのコラボレーションのための新しいアーキテクチャ、つまり敵対逆強化学習 (ARMCHAIR) を使用した人間とのコラボレーションのための適応ロボット モーションを紹介します。
当社のソリューションは、敵対的逆強化学習とモデル予測制御を活用して、探索タスクで人間と協力するモバイル マルチロボット システムの最適な軌道と意思決定を計算します。
ミッション中、ARMCHAIR は人間の介入なしで動作し、サポートの必要性を自律的に特定し、それに応じて行動します。
私たちのアプローチは、人間とロボットのチームのネットワーク接続要件にも明確に対応しています。
広範なシミュレーションベースの評価により、ARMCHAIR を使用すると、ロボットのグループが探査シナリオでシミュレートされた人間を安全にサポートできるようになり、衝突やネットワークの切断が防止され、タスクの全体的なパフォーマンスが向上することが実証されました。
要約(オリジナル)
One of the key issues in human-robot collaboration is the development of computational models that allow robots to predict and adapt to human behavior. Much progress has been achieved in developing such models, as well as control techniques that address the autonomy problems of motion planning and decision-making in robotics. However, the integration of computational models of human behavior with such control techniques still poses a major challenge, resulting in a bottleneck for efficient collaborative human-robot teams. In this context, we present a novel architecture for human-robot collaboration: Adaptive Robot Motion for Collaboration with Humans using Adversarial Inverse Reinforcement learning (ARMCHAIR). Our solution leverages adversarial inverse reinforcement learning and model predictive control to compute optimal trajectories and decisions for a mobile multi-robot system that collaborates with a human in an exploration task. During the mission, ARMCHAIR operates without human intervention, autonomously identifying the necessity to support and acting accordingly. Our approach also explicitly addresses the network connectivity requirement of the human-robot team. Extensive simulation-based evaluations demonstrate that ARMCHAIR allows a group of robots to safely support a simulated human in an exploration scenario, preventing collisions and network disconnections, and improving the overall performance of the task.
arxiv情報
著者 | Angelo Caregnato-Neto,Luciano Cavalcante Siebert,Arkady Zgonnikov,Marcos Ricardo Omena de Albuquerque Maximo,Rubens Junqueira Magalhães Afonso |
発行日 | 2024-02-29 13:06:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google