On Data Fabrication in Collaborative Vehicular Perception: Attacks and Countermeasures

要約

外部リソースからのデータを取り込むことで、コネクテッドカーや自律走行車(CAV)のセンシング能力を大幅に向上させる協調知覚は、潜在的なセキュリティリスクももたらす。CAVの運転判断は信頼できない遠隔地のデータに依存しているため、協調知覚システムの悪意のある参加者による攻撃を受けやすい。しかし、このような脅威に対するセキュリティ分析や対策は存在しない。この脆弱性の影響を理解するために、我々は様々なリアルタイムデータ捏造攻撃を提案することで新しい地平を切り開く。この攻撃は、攻撃者が被害者の知覚結果を混乱させるために、細工した悪意のあるデータを被害者に配信し、急ブレーキや衝突リスクの増大を引き起こすものである。我々の攻撃は、忠実度の高いシミュレーションシナリオで86%以上の高い成功率を示し、実世界の実験でも実現可能である。この脆弱性を軽減するために、我々は、良識ある車両が共同で悪意ある捏造を明らかにすることを可能にする体系的な異常検知アプローチを提示する。シミュレーションシナリオでは91.5%の攻撃を3%の誤検知率で検知し、実環境シナリオでは攻撃の影響を大幅に軽減する。

要約(オリジナル)

Collaborative perception, which greatly enhances the sensing capability of connected and autonomous vehicles (CAVs) by incorporating data from external resources, also brings forth potential security risks. CAVs’ driving decisions rely on remote untrusted data, making them susceptible to attacks carried out by malicious participants in the collaborative perception system. However, security analysis and countermeasures for such threats are absent. To understand the impact of the vulnerability, we break the ground by proposing various real-time data fabrication attacks in which the attacker delivers crafted malicious data to victims in order to perturb their perception results, leading to hard brakes or increased collision risks. Our attacks demonstrate a high success rate of over 86% on high-fidelity simulated scenarios and are realizable in real-world experiments. To mitigate the vulnerability, we present a systematic anomaly detection approach that enables benign vehicles to jointly reveal malicious fabrication. It detects 91.5% of attacks with a false positive rate of 3% in simulated scenarios and significantly mitigates attack impacts in real-world scenarios.

arxiv情報

著者 Qingzhao Zhang,Shuowei Jin,Ruiyang Zhu,Jiachen Sun,Xumiao Zhang,Qi Alfred Chen,Z. Morley Mao
発行日 2023-10-03 17:48:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CR, cs.CV パーマリンク