On Adversarial Robustness of Point Cloud Semantic Segmentation

要約

タイトル:点群セマンティックセグメンテーションの敵対的なロバスト性に関する研究

要約:

– 点群セマンティックセグメンテーションに対するニューラルネットワークの採用により、最近の研究努力は優れた性能を達成している。
– しかし、これらの複雑なモデルの堅牢性は系統的に分析されていない。
– 自律走行などの安全上重要な応用において、特に敵対的なサンプルの下でこれらのモデルがどのように影響を受けるかは、この知識の空白を埋めることが重要である。
– そのような理由から、PCSSの堅牢性の比較的な研究を行っている。まず、攻撃者の目的をパフォーマンスの低下とオブジェクトの隠蔽に正式に定義する。そして、ノルムを拘束するかどうかによって新しい攻撃方法を開発する。我々は2つのデータセットと3つのPCSSモデルで異なる攻撃選択肢を評価しました。結果、すべてのモデルが脆弱で、ポイントカラーを攻撃することで効果的であることがわかりました。
– この研究により、研究コミュニティにPCSSモデルを強化する新しいアプローチを開発することに注意を呼びかけます。

要約(オリジナル)

Recent research efforts on 3D point cloud semantic segmentation (PCSS) have achieved outstanding performance by adopting neural networks. However, the robustness of these complex models have not been systematically analyzed. Given that PCSS has been applied in many safety-critical applications like autonomous driving, it is important to fill this knowledge gap, especially, how these models are affected under adversarial samples. As such, we present a comparative study of PCSS robustness. First, we formally define the attacker’s objective under performance degradation and object hiding. Then, we develop new attack by whether to bound the norm. We evaluate different attack options on two datasets and three PCSS models. We found all the models are vulnerable and attacking point color is more effective. With this study, we call the attention of the research community to develop new approaches to harden PCSS models.

arxiv情報

著者 Jiacen Xu,Zhe Zhou,Boyuan Feng,Yufei Ding,Zhou Li
発行日 2023-04-23 23:45:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク