A Benchmark for Out of Distribution Detection in Point Cloud 3D Semantic Segmentation

要約

自動運転などの安全性が重要なアプリケーションは、オブジェクトの検出とセグメンテーションにディープ ニューラル ネットワーク (DNN) を使用します。
DNN は、壊滅的な結果につながる Out-of-Distribution (OOD) 入力をいつ観測するかを予測できません。
既存の OOD 検出方法は、画像入力については広く研究されていますが、LiDAR 入力についてはあまり調査されていません。
そのため、この研究では、3D セマンティック セグメンテーションにおける OOD 検出のベンチマークとして 2 つのデータセットを提案しました。
Deep Ensembles と RandLA-Net の Flipout バージョンを使用して生成された最大 Softmax 確率とエントロピー スコアを OOD スコアとして使用しました。
Deep Ensembles が OOD 検出で Flipout モデルを実行し、両方のデータセットで AUROC スコアが高いことを観察しました。

要約(オリジナル)

Safety-critical applications like autonomous driving use Deep Neural Networks (DNNs) for object detection and segmentation. The DNNs fail to predict when they observe an Out-of-Distribution (OOD) input leading to catastrophic consequences. Existing OOD detection methods were extensively studied for image inputs but have not been explored much for LiDAR inputs. So in this study, we proposed two datasets for benchmarking OOD detection in 3D semantic segmentation. We used Maximum Softmax Probability and Entropy scores generated using Deep Ensembles and Flipout versions of RandLA-Net as OOD scores. We observed that Deep Ensembles out perform Flipout model in OOD detection with greater AUROC scores for both datasets.

arxiv情報

著者 Lokesh Veeramacheneni,Matias Valdenegro-Toro
発行日 2022-11-11 14:33:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク