要約
ロボットは私たちの生活にますます溶け込んでおり、さまざまな作業を支援します。
人間とロボットの間で効果的なコラボレーションを実現するには、ロボットが人間の意図を理解し、行動を予測することが不可欠です。
この論文では、協働ロボットのためのヒューマン・オブジェクト・インタラクション(HOI)予測フレームワークを提案します。
ビデオから HOI を検出および予測するための、効率的で堅牢なトランスフォーマー ベースのモデルを提案します。
この期待の高まりにより、ロボットは人間を積極的に支援できるようになり、より効率的で直感的なコラボレーションが実現します。
私たちのモデルは、VidHOI データセットでの HOI 検出と予測において最先端の結果を上回り、mAP でそれぞれ 1.76% と 1.04% 増加し、15.4 倍高速です。
実際のロボットでの実験結果を通じてアプローチの有効性を示し、HOI を予測するロボットの能力が人間とロボットのより良いインタラクションの鍵であることを実証します。
詳細については、プロジェクトの Web ページ: https://evm7.github.io/HOI4ABOT_page/ をご覧ください。
要約(オリジナル)
Robots are becoming increasingly integrated into our lives, assisting us in various tasks. To ensure effective collaboration between humans and robots, it is essential that they understand our intentions and anticipate our actions. In this paper, we propose a Human-Object Interaction (HOI) anticipation framework for collaborative robots. We propose an efficient and robust transformer-based model to detect and anticipate HOIs from videos. This enhanced anticipation empowers robots to proactively assist humans, resulting in more efficient and intuitive collaborations. Our model outperforms state-of-the-art results in HOI detection and anticipation in VidHOI dataset with an increase of 1.76% and 1.04% in mAP respectively while being 15.4 times faster. We showcase the effectiveness of our approach through experimental results in a real robot, demonstrating that the robot’s ability to anticipate HOIs is key for better Human-Robot Interaction. More information can be found on our project webpage: https://evm7.github.io/HOI4ABOT_page/
arxiv情報
著者 | Esteve Valls Mascaro,Daniel Sliwowski,Dongheui Lee |
発行日 | 2024-04-08 15:46:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google