Among Us: Adversarially Robust Collaborative Perception by Consensus

要約

複数のロボットは、深層学習を使用すると敵対的な攻撃に簡単に苦しむものの、個々のロボットよりも協調的にシーンを認識する (例: オブジェクトを検出する) ことができます。
これは敵対的防御によって対処できますが、その訓練には、しばしば未知の攻撃メカニズムが必要です。
これとは異なり、目に見えない攻撃者に一般化できる新しいサンプリングベースの防御戦略である ROBOSAC を提案します。
私たちの重要な考えは、協調的な認識は、個人の認識と比較して、結果の不一致ではなく、合意につながるべきであるということです。
これは、仮説と検証のフレームワークにつながります。チームメイトのランダムなサブセットからのコラボレーションの有無にかかわらず、認識結果がコンセンサスに達するまで比較されます。
このようなフレームワークでは、サンプリングされたサブセット内のチームメイトが増えると、多くの場合、知覚パフォーマンスが向上しますが、潜在的な攻撃者を拒否するためにより長いサンプリング時間が必要になります。
したがって、攻撃者のいないサブセットの望ましいサイズ、または同等に、指定された試行回数内で正常にサンプリングできるサブセットの最大サイズを確保するために必要なサンプリング試行の数を導き出します。
自動運転シナリオでの共同 3D オブジェクト検出のタスクで、この方法を検証します。

要約(オリジナル)

Multiple robots could perceive a scene (e.g., detect objects) collaboratively better than individuals, although easily suffer from adversarial attacks when using deep learning. This could be addressed by the adversarial defense, but its training requires the often-unknown attacking mechanism. Differently, we propose ROBOSAC, a novel sampling-based defense strategy generalizable to unseen attackers. Our key idea is that collaborative perception should lead to consensus rather than dissensus in results compared to individual perception. This leads to our hypothesize-and-verify framework: perception results with and without collaboration from a random subset of teammates are compared until reaching a consensus. In such a framework, more teammates in the sampled subset often entail better perception performance but require longer sampling time to reject potential attackers. Thus, we derive how many sampling trials are needed to ensure the desired size of an attacker-free subset, or equivalently, the maximum size of such a subset that we can successfully sample within a given number of trials. We validate our method on the task of collaborative 3D object detection in autonomous driving scenarios.

arxiv情報

著者 Yiming Li,Qi Fang,Jiamu Bai,Siheng Chen,Felix Juefei-Xu,Chen Feng
発行日 2023-03-27 11:42:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.MA, cs.RO パーマリンク