TPC: Transformation-Specific Smoothing for Point Cloud Models

要約

ニューラルネットワークアーキテクチャを用いた点群モデルは、大きな成功を収め、自律走行車のライダーベース認識システムなど、安全性が重要なアプリケーションに広く使用されている。しかし、このようなモデルは、回転やテーパリングなどの意味変換をこっそり適用し、モデルの予測を誤らせることを目的とした敵対的攻撃に対して脆弱であることが示されている。本論文では、意味変換攻撃に対する点群モデルの堅牢性を強固かつスケーラブルに保証する、変換に特化した平滑化フレームワークTPCを提案する。まず、一般的な3次元変換を、加法的変換(例:シアリング)、合成可能変換(例:回転)、間接合成可能変換(例:テーパー)の3つのカテゴリに分類し、すべてのカテゴリに対する一般的な堅牢性認証戦略をそれぞれ提示します。次に、特定の意味変換とその合成の範囲について、独自の認証プロトコルを規定する。いくつかの一般的な3D変換に関する広範な実験により、TPCが技術水準を大幅に上回ることが示された。例えば、我々のフレームワークは、z軸に沿ったねじれ変換(20$^circ$以内)に対する認証精度を、20.3$%$から83.8$%$に向上させた。コードとモデルは https://github.com/Qianhewu/Point-Cloud-Smoothing で公開されています。

要約(オリジナル)

Point cloud models with neural network architectures have achieved great success and have been widely used in safety-critical applications, such as Lidar-based recognition systems in autonomous vehicles. However, such models are shown vulnerable to adversarial attacks which aim to apply stealthy semantic transformations such as rotation and tapering to mislead model predictions. In this paper, we propose a transformation-specific smoothing framework TPC, which provides tight and scalable robustness guarantees for point cloud models against semantic transformation attacks. We first categorize common 3D transformations into three categories: additive (e.g., shearing), composable (e.g., rotation), and indirectly composable (e.g., tapering), and we present generic robustness certification strategies for all categories respectively. We then specify unique certification protocols for a range of specific semantic transformations and their compositions. Extensive experiments on several common 3D transformations show that TPC significantly outperforms the state of the art. For example, our framework boosts the certified accuracy against twisting transformation along z-axis (within 20$^\circ$) from 20.3$\%$ to 83.8$\%$. Codes and models are available at https://github.com/Qianhewu/Point-Cloud-Smoothing.

arxiv情報

著者 Wenda Chu,Linyi Li,Bo Li
発行日 2023-03-06 14:58:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク