Are you a robot? Detecting Autonomous Vehicles from Behavior Analysis

要約

自動運転に関する大きな誇大宣伝により、高度なモビリティのユースケースをサポートする新しい新しいテクノロジーが熱心に求められています。
自動車メーカーが乗客の安全性と快適性を向上させるために SAE レベル 3+ システムの開発を続ける中、交通当局は微調整するためのフィードバック ループ メカニズムを提供しながら、人間駆動車両から完全自動運転車両への移行を管理するための新しい手順を確立する必要があります。
自律システムを想定しています。
したがって、自動運転車のプロファイリングを自動的に行い、自動運転車と人間が運転する自動運転車を区別する方法が必須です。
この論文では、車両自体からのアクティブな通知を必要とせずに、車両が自律走行しているかどうかを判断するために、カメラ画像と状態情報を使用してアクティブな車両を監視する本格的なフレームワークを紹介します。
基本的に、これは車両間の協力に基づいており、道路上で取得したデータを共有し、自動運転車を識別するための機械学習モデルにフィードします。
私たちはソリューションを徹底的にテストし、自動運転制御エージェントと免許を持つドライバーが操作するステアリングホイールを採用した CARLA シミュレーターを使用して NexusStreet データセットを作成しました。
実験では、ビデオ クリップを分析することで 2 つの動作を 80% の精度で識別できることが示されており、ターゲットの状態情報が利用可能な場合には、この精度は最大 93% まで向上します。
最後に、理想的でないデータ収集条件下でフレームワークがどのように動作するかを観察するために、意図的に状態を劣化させました。

要約(オリジナル)

The tremendous hype around autonomous driving is eagerly calling for emerging and novel technologies to support advanced mobility use cases. As car manufactures keep developing SAE level 3+ systems to improve the safety and comfort of passengers, traffic authorities need to establish new procedures to manage the transition from human-driven to fully-autonomous vehicles while providing a feedback-loop mechanism to fine-tune envisioned autonomous systems. Thus, a way to automatically profile autonomous vehicles and differentiate those from human-driven ones is a must. In this paper, we present a fully-fledged framework that monitors active vehicles using camera images and state information in order to determine whether vehicles are autonomous, without requiring any active notification from the vehicles themselves. Essentially, it builds on the cooperation among vehicles, which share their data acquired on the road feeding a machine learning model to identify autonomous cars. We extensively tested our solution and created the NexusStreet dataset, by means of the CARLA simulator, employing an autonomous driving control agent and a steering wheel maneuvered by licensed drivers. Experiments show it is possible to discriminate the two behaviors by analyzing video clips with an accuracy of 80%, which improves up to 93% when the target state information is available. Lastly, we deliberately degraded the state to observe how the framework performs under non-ideal data collection conditions.

arxiv情報

著者 Fabio Maresca,Filippo Grazioli,Antonio Albanese,Vincenzo Sciancalepore,Gianpiero Negri,Xavier Costa-Perez
発行日 2024-03-14 17:00:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク