TrackletMapper: Ground Surface Segmentation and Mapping from Traffic Participant Trajectories

要約

道路や交差点などの地上インフラストラクチャを確実に分類することは、歩行者と並んで動作する移動ロボットにとって不可欠なタスクです。
多くのセマンティック セグメンテーション データセットが自動運転車で利用できますが、そのようなデータセットでトレーニングされたモデルは、歩行者空間で動作するロボットに展開されると、大きなドメイン ギャップを示します。
歩行者の視点から記録された画像に手動で注釈を付けるには、費用と時間がかかります。
この課題を克服するために、人間が注釈を付けたデータを必要とせずに、オブジェクト トラックレットから歩道、道路、交差点などの地面タイプに注釈を付けるためのフレームワークである TrackletMapper を提案します。
この目的のために、ロボットの自我軌跡と他の交通参加者の経路を自我ビューカメラ画像に投影し、地面セグメンテーションモデルをトレーニングできる複数のタイプの地面に対して疎なセマンティックアノテーションを作成します。
さらに、地表マップを集約してカメラ画像に投影し、まばらなトラックレット アノテーションと比較してより高密度のトレーニング アノテーション セットを作成することで、パフォーマンスを向上させるためにモデルを自己蒸留できることを示します。
歩行者エリアで動作する移動ロボットの新しい大規模データセットに関する調査結果を定性的および定量的に証明します。
コードとデータセットは、http://trackletmapper.cs.uni-freiburg.de で入手できます。

要約(オリジナル)

Robustly classifying ground infrastructure such as roads and street crossings is an essential task for mobile robots operating alongside pedestrians. While many semantic segmentation datasets are available for autonomous vehicles, models trained on such datasets exhibit a large domain gap when deployed on robots operating in pedestrian spaces. Manually annotating images recorded from pedestrian viewpoints is both expensive and time-consuming. To overcome this challenge, we propose TrackletMapper, a framework for annotating ground surface types such as sidewalks, roads, and street crossings from object tracklets without requiring human-annotated data. To this end, we project the robot ego-trajectory and the paths of other traffic participants into the ego-view camera images, creating sparse semantic annotations for multiple types of ground surfaces from which a ground segmentation model can be trained. We further show that the model can be self-distilled for additional performance benefits by aggregating a ground surface map and projecting it into the camera images, creating a denser set of training annotations compared to the sparse tracklet annotations. We qualitatively and quantitatively attest our findings on a novel large-scale dataset for mobile robots operating in pedestrian areas. Code and dataset will be made available at http://trackletmapper.cs.uni-freiburg.de.

arxiv情報

著者 Jannik Zürn,Sebastian Weber,Wolfram Burgard
発行日 2022-09-12 13:43:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク