ProcNet: Deep Predictive Coding Model for Robust-to-occlusion Visual Segmentation and Pose Estimation

要約

人間とロボットのコラボレーションを伴うシステムでは、参加する人間の安全を確保するための措置を講じる必要があります。
これは通常、人間の姿勢の正確で信頼性の高い推定値が利用可能な場合に達成可能です。
この論文では、視覚セグメンテーションをサポートするディープ予測コーディング (PC) モデルを紹介し、これを拡張して姿勢推定を追求します。
このモデルは、人間とロボットが互いに近接して動作しているときに自然に発生するタイプの一時的なオクルージョンに対して堅牢性を提供するように設計されています。
関連するモデル パラメーターのパフォーマンスへの影響が評価され、代替姿勢推定モデル (NVIDIA の PoseCNN) との比較により、提案されたアプローチの有効性が示されます。

要約(オリジナル)

Systems involving human-robot collaboration necessarily require that steps be taken to ensure safety of the participating human. This is usually achievable if accurate, reliable estimates of the human’s pose are available. In this paper, we present a deep Predictive Coding (PC) model supporting visual segmentation, which we extend to pursue pose estimation. The model is designed to offer robustness to the type of transient occlusion naturally occurring when human and robot are operating in close proximity to one another. Impact on performance of relevant model parameters is assessed, and comparison to an alternate pose estimation model (NVIDIA’s PoseCNN) illustrates efficacy of the proposed approach.

arxiv情報

著者 Michael Zechmair,Alban Bornet,Yannick Morel
発行日 2023-10-27 09:34:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク