Robots That Can See: Leveraging Human Pose for Trajectory Prediction

要約

安全で効果的なロボットのナビゲーションを可能にするためには、家庭やオフィスなどの動的な環境におけるすべての人間の動きを予測することが重要です。
人間は厳密な動作規則に従わないため、このような空間は依然として困難であり、コーナーやドアなど、突然遭遇する機会を生み出す複数の遮蔽された入り口が存在することがよくあります。
この研究では、人間の位置、頭の向き、オンボードの野生感覚情報からの 3D 骨格キーポイントなどの入力特徴から、人間中心の環境における人間の将来の軌道を予測する、Transformer ベースのアーキテクチャを紹介します。
結果として得られるモデルは、将来の人間の軌跡予測に固有の不確実性を捉え、一般的な予測ベンチマークと、予測タスクに適応した移動ロボットからキャプチャされた人間追跡データセットで最先端のパフォーマンスを実現します。
さらに、過去のデータが限られている新しいエージェントがエラーの主な原因であることを特定し、そのような困難なシナリオでの予測エラーを削減する上での 3D 骨格ポーズの補完的な性質を実証します。

要約(オリジナル)

Anticipating the motion of all humans in dynamic environments such as homes and offices is critical to enable safe and effective robot navigation. Such spaces remain challenging as humans do not follow strict rules of motion and there are often multiple occluded entry points such as corners and doors that create opportunities for sudden encounters. In this work, we present a Transformer based architecture to predict human future trajectories in human-centric environments from input features including human positions, head orientations, and 3D skeletal keypoints from onboard in-the-wild sensory information. The resulting model captures the inherent uncertainty for future human trajectory prediction and achieves state-of-the-art performance on common prediction benchmarks and a human tracking dataset captured from a mobile robot adapted for the prediction task. Furthermore, we identify new agents with limited historical data as a major contributor to error and demonstrate the complementary nature of 3D skeletal poses in reducing prediction error in such challenging scenarios.

arxiv情報

著者 Tim Salzmann,Lewis Chiang,Markus Ryll,Dorsa Sadigh,Carolina Parada,Alex Bewley
発行日 2023-09-29 13:02:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.HC, cs.LG, cs.RO パーマリンク