MotionSC: Data Set and Network for Real-Time Semantic Mapping in Dynamic Environments

要約

この作業は、正確で完全な動的シーンを備えた新しい屋外データセットを作成することにより、セマンティックシーン補完(SSC)データのギャップに対処します。
私たちのデータセットは、各タイムステップでランダムにサンプリングされた世界のビューから形成され、オクルージョンやトレースなしでシーンを完成させるための一般化可能性を監視します。
最先端のオープンソースネットワークからSSCベースラインを作成し、最近の3Dディープラーニングアーキテクチャを活用して時間情報でSSCを強化することにより、ベンチマークリアルタイム高密度ローカルセマンティックマッピングアルゴリズムMotionSCを構築します。
私たちのネットワークは、提案されたデータセットが動的オブジェクトの存在下で正確なシーンの完了を定量化および監視できることを示しています。これにより、改善された動的マッピングアルゴリズムの開発につながる可能性があります。
すべてのソフトウェアはhttps://github.com/UMich-CURLY/3DMappingで入手できます。

要約(オリジナル)

This work addresses a gap in semantic scene completion (SSC) data by creating a novel outdoor data set with accurate and complete dynamic scenes. Our data set is formed from randomly sampled views of the world at each time step, which supervises generalizability to complete scenes without occlusions or traces. We create SSC baselines from state-of-the-art open source networks and construct a benchmark real-time dense local semantic mapping algorithm, MotionSC, by leveraging recent 3D deep learning architectures to enhance SSC with temporal information. Our network shows that the proposed data set can quantify and supervise accurate scene completion in the presence of dynamic objects, which can lead to the development of improved dynamic mapping algorithms. All software is available at https://github.com/UMich-CURLY/3DMapping.

arxiv情報

著者 Joey Wilson,Jingyu Song,Yuewei Fu,Arthur Zhang,Andrew Capodieci,Paramsothy Jayakumar,Kira Barton,Maani Ghaffari
発行日 2022-06-30 16:28:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク