On Data Fabrication in Collaborative Vehicular Perception: Attacks and Countermeasures

要約

外部リソースからのデータを組み込むことでコネクテッド自動運転車 (CAV) のセンシング能力を大幅に強化する共同認識も、潜在的なセキュリティ リスクをもたらします。
CAV の運転決定は、信頼できないリモート データに依存しているため、協調認識システムの悪意のある参加者によって実行される攻撃の影響を受けやすくなっています。
しかし、そのような脅威に対するセキュリティ分析と対策は存在しません。
この脆弱性の影響を理解するために、私たちはさまざまなリアルタイム データ捏造攻撃を提案することで基礎を打ち立てました。この攻撃では、攻撃者が被害者の認識結果を混乱させるために細工した悪意のあるデータを被害者に配信し、ハード ブレーキや衝突リスクの増加につながります。
当社の攻撃は、忠実度の高いシミュレートされたシナリオで 86\% 以上の高い成功率を示しており、現実世界の実験でも実現可能です。
この脆弱性を軽減するために、良性の車両が共同して悪意のある捏造を明らかにできるようにする体系的な異常検出アプローチを紹介します。
シミュレートされたシナリオでは 3% の誤検知率で攻撃の 91.5% を検出し、現実のシナリオでは攻撃の影響を大幅に軽減します。

要約(オリジナル)

Collaborative perception, which greatly enhances the sensing capability of connected and autonomous vehicles (CAVs) by incorporating data from external resources, also brings forth potential security risks. CAVs’ driving decisions rely on remote untrusted data, making them susceptible to attacks carried out by malicious participants in the collaborative perception system. However, security analysis and countermeasures for such threats are absent. To understand the impact of the vulnerability, we break the ground by proposing various real-time data fabrication attacks in which the attacker delivers crafted malicious data to victims in order to perturb their perception results, leading to hard brakes or increased collision risks. Our attacks demonstrate a high success rate of over 86\% on high-fidelity simulated scenarios and are realizable in real-world experiments. To mitigate the vulnerability, we present a systematic anomaly detection approach that enables benign vehicles to jointly reveal malicious fabrication. It detects 91.5% of attacks with a false positive rate of 3% in simulated scenarios and significantly mitigates attack impacts in real-world scenarios.

arxiv情報

著者 Qingzhao Zhang,Shuowei Jin,Jiachen Sun,Xumiao Zhang,Ruiyang Zhu,Qi Alfred Chen,Z. Morley Mao
発行日 2023-09-22 15:54:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV パーマリンク