要約
このペーパーでは、現実世界のシナリオで人間とロボットのコラボレーション (HRC) を強化するための包括的なフレームワークを紹介します。
これは、より小さなプリミティブのセットを通じて、2 人のエージェント間の協力を必要とする、明確化されたタスクをモデル化するための形式主義を導入します。
私たちの実装では、階層タスク ネットワーク (HTN) 計画と、視覚、人間の活動認識、触覚センシングを含むモジュール式の多感覚認識パイプラインを活用しています。
システムの拡張性を示すために、2 人の人間が交互に Baxter ロボットと協力して、さまざまなコンポーネントを備えた 4 つの家具を組み立てる実験シナリオを紹介します。
この統合は、HRC における有望な進歩を強調し、さまざまなアプリケーションにわたる複雑で協調的なタスクに対するスケーラブルなアプローチを示唆しています。
要約(オリジナル)
This paper presents a comprehensive framework to enhance Human-Robot Collaboration (HRC) in real-world scenarios. It introduces a formalism to model articulated tasks, requiring cooperation between two agents, through a smaller set of primitives. Our implementation leverages Hierarchical Task Networks (HTN) planning and a modular multisensory perception pipeline, which includes vision, human activity recognition, and tactile sensing. To showcase the system’s scalability, we present an experimental scenario where two humans alternate in collaborating with a Baxter robot to assemble four pieces of furniture with variable components. This integration highlights promising advancements in HRC, suggesting a scalable approach for complex, cooperative tasks across diverse applications.
arxiv情報
著者 | Valerio Belcamino,Mariya Kilina,Linda Lastrico,Alessandro Carfì,Fulvio Mastrogiovanni |
発行日 | 2024-06-07 12:58:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google