要約
近年、特にインダストリー 4.0 シナリオでは、人間と機械の間の効果的かつ安全なコラボレーションが非常に重要になってきています。
この協調パラダイムを実現するための重要な前提条件は、環境内でのロボットの 3D 姿勢を正確に理解することです。
したがって、この論文では、深度データを活用してロボット関節の 3D 位置を正確に確立する新しいビジョンベースのシステムを紹介します。
具体的には、将来の姿勢を予測するために共同学習することによって、提案されたシステムの現在の姿勢推定精度を向上させる能力を証明します。
実際、私たちはポーズ ナウキャスティングの概念を導入し、学習した将来の知識を活用して現在の推定を改善するシステムの機能を示しています。
実験評価は 2 つの異なるデータセットに対して実行され、最先端のリアルタイム パフォーマンスを提供し、ロボットと人間の両方のシナリオで提案された方法の有効性が確認されます。
要約(オリジナル)
In recent years, the effective and safe collaboration between humans and machines has gained significant importance, particularly in the Industry 4.0 scenario. A critical prerequisite for realizing this collaborative paradigm is precisely understanding the robot’s 3D pose within its environment. Therefore, in this paper, we introduce a novel vision-based system leveraging depth data to accurately establish the 3D locations of robotic joints. Specifically, we prove the ability of the proposed system to enhance its current pose estimation accuracy by jointly learning to forecast future poses. Indeed, we introduce the concept of Pose Nowcasting, denoting the capability of a system to exploit the learned knowledge of the future to improve the estimation of the present. The experimental evaluation is conducted on two different datasets, providing state-of-the-art and real-time performance and confirming the validity of the proposed method on both the robotic and human scenarios.
arxiv情報
著者 | Alessandro Simoni,Francesco Marchetti,Guido Borghi,Federico Becattini,Lorenzo Seidenari,Roberto Vezzani,Alberto Del Bimbo |
発行日 | 2023-08-24 16:40:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google