MF-MOS: A Motion-Focused Model for Moving Object Segmentation

要約

移動物体セグメンテーション (MOS) は、交通参加者を検出するための信頼できるソリューションを提供するため、自動運転分野で大きな関心を集めています。
MOS 問題では、動的キャプチャが常に重要です。
従来の方法では、距離画像から動きの特徴を直接キャプチャしていました。
別の言い方をすれば、距離画像には豊富な意味論的なガイダンスが含まれているのに対し、残差マップは動き情報の可能性をより大きく提供できると主張します。
この直感に基づいて、我々はLiDAR移動物体セグメンテーションのためのデュアルブランチ構造を備えた新しいモーション焦点モデルであるMF-MOSを提案します。
斬新なことに、残差マップからモーションをキャプチャし、距離画像から意味特徴を生成することにより、時空間情報を分離します。これは、モーションブランチの可動オブジェクトの誘導として使用されます。
当社の単純かつ特徴的なソリューションは、距離画像と残差マップの両方を最大限に活用できるため、LiDAR ベースの MOS タスクのパフォーマンスを大幅に向上させることができます。
注目すべきことに、当社の MF-MOS は、送信時に SemanticKITTI データセットの MOS リーダーボードで 76.7% という優れた IoU を達成し、現在の最先端のパフォーマンスを実証しました。
MF-MOS の実装は https://github.com/SCNU-RISLAB/MF-MOS でリリースされました。

要約(オリジナル)

Moving object segmentation (MOS) provides a reliable solution for detecting traffic participants and thus is of great interest in the autonomous driving field. Dynamic capture is always critical in the MOS problem. Previous methods capture motion features from the range images directly. Differently, we argue that the residual maps provide greater potential for motion information, while range images contain rich semantic guidance. Based on this intuition, we propose MF-MOS, a novel motion-focused model with a dual-branch structure for LiDAR moving object segmentation. Novelly, we decouple the spatial-temporal information by capturing the motion from residual maps and generating semantic features from range images, which are used as movable object guidance for the motion branch. Our straightforward yet distinctive solution can make the most use of both range images and residual maps, thus greatly improving the performance of the LiDAR-based MOS task. Remarkably, our MF-MOS achieved a leading IoU of 76.7% on the MOS leaderboard of the SemanticKITTI dataset upon submission, demonstrating the current state-of-the-art performance. The implementation of our MF-MOS has been released at https://github.com/SCNU-RISLAB/MF-MOS.

arxiv情報

著者 Jintao Cheng,Kang Zeng,Zhuoxu Huang,Xiaoyu Tang,Jin Wu,Chengxi Zhang,Xieyuanli Chen,Rui Fan
発行日 2024-01-30 13:55:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク