Pedestrian Environment Model for Automated Driving

要約

自動運転車は、他の車両と正しく対話するだけでなく、歩行者や自転車などの交通弱者に対して安全な方法で反応できなければなりません。
歩行者と自動運転車両との間の安全な対話のために、車両は歩行者の行動を解釈できなければなりません。
一般的な環境モデルには、歩行者の意図を理解するために使用される体の姿勢などの情報は含まれていません。
この研究では、歩行者の位置と姿勢情報を含む環境モデルを提案します。
単眼カメラからの画像と車両の位置特定データのみを歩行者環境モデルへの入力として使用します。
ニューラルネットワークによる人間の姿勢推定器を用いて画像から骨格情報を抽出します。
さらに、ハンガリーアルゴリズムに基づくシンプルな追跡アルゴリズムとエゴモーション補償を使用してスケルトンを追跡します。
位置の 3D 情報を取得するには、車両位置と連動して連続フレームのデータを集計します。
CARLA シミュレーターと nuScenes データセットで生成されたデータで歩行者環境モデルをデモンストレーションします。
全体として、両方のデータセットで相対位置誤差は約 16% に達します。

要約(オリジナル)

Besides interacting correctly with other vehicles, automated vehicles should also be able to react in a safe manner to vulnerable road users like pedestrians or cyclists. For a safe interaction between pedestrians and automated vehicles, the vehicle must be able to interpret the pedestrian’s behavior. Common environment models do not contain information like body poses used to understand the pedestrian’s intent. In this work, we propose an environment model that includes the position of the pedestrians as well as their pose information. We only use images from a monocular camera and the vehicle’s localization data as input to our pedestrian environment model. We extract the skeletal information with a neural network human pose estimator from the image. Furthermore, we track the skeletons with a simple tracking algorithm based on the Hungarian algorithm and an ego-motion compensation. To obtain the 3D information of the position, we aggregate the data from consecutive frames in conjunction with the vehicle position. We demonstrate our pedestrian environment model on data generated with the CARLA simulator and the nuScenes dataset. Overall, we reach a relative position error of around 16% on both datasets.

arxiv情報

著者 Adrian Holzbock,Alexander Tsaregorodtsev,Vasileios Belagiannis
発行日 2023-08-17 16:10:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク