Safety with Agency: Human-Centered Safety Filter with Application to AI-Assisted Motorsports

要約

人間の機関を損なうことなくシステムの安全性を大幅に向上させる共有自律性のために、人間中心の安全フィルター(HCSF)を提案します。
当社のHCSFは、神経安全価値関数に基づいて構築されています。これは、最初にブラックボックスの相互作用を通じて拡張的に学習し、次に展開時に使用して、新しい状態アクション制御バリア機能(Q-CBF)の安全制約を実施します。
このQ-CBF安全フィルターは、合成とランタイムの安全性の監視と介入の両方について、システムのダイナミクスに関する知識を必要としないため、私たちの方法は複雑なブラックボックス共有の自律システムに容易に適用されます。
特に、HCSFのCBFベースの介入は、多くの従来の安全フィルターによって提供される突然の土壇場の修正を回避し、人間の行動を最小限かつスムーズに変更します。
Assetto Corsa-A Highfichity Car Racing Simulatorを使用して、Assetto Corsa-A High-Fidelity Car Racing Simulatorを使用して、「エッジ上での運転」シナリオでの堅牢性を評価する包括的な対面ユーザー調査におけるアプローチを検証します。
軌道データと、HCSF支援に対するドライバーの認識の両方を、非支援運転と従来の安全フィルターと比較します。
実験結果は、1)支援がないのと比較して、HCSFは人間の代理店や快適さを損なうことなく安全性とユーザーの満足度の両方を改善し、2)従来の安全フィルターと比較して、提案されているHCSFは、堅牢性を維持しながら人間の代理店、快適性、満足度を高めます。

要約(オリジナル)

We propose a human-centered safety filter (HCSF) for shared autonomy that significantly enhances system safety without compromising human agency. Our HCSF is built on a neural safety value function, which we first learn scalably through black-box interactions and then use at deployment to enforce a novel state-action control barrier function (Q-CBF) safety constraint. Since this Q-CBF safety filter does not require any knowledge of the system dynamics for both synthesis and runtime safety monitoring and intervention, our method applies readily to complex, black-box shared autonomy systems. Notably, our HCSF’s CBF-based interventions modify the human’s actions minimally and smoothly, avoiding the abrupt, last-moment corrections delivered by many conventional safety filters. We validate our approach in a comprehensive in-person user study using Assetto Corsa-a high-fidelity car racing simulator with black-box dynamics-to assess robustness in ‘driving on the edge’ scenarios. We compare both trajectory data and drivers’ perceptions of our HCSF assistance against unassisted driving and a conventional safety filter. Experimental results show that 1) compared to having no assistance, our HCSF improves both safety and user satisfaction without compromising human agency or comfort, and 2) relative to a conventional safety filter, our proposed HCSF boosts human agency, comfort, and satisfaction while maintaining robustness.

arxiv情報

著者 Donggeon David Oh,Justin Lidard,Haimin Hu,Himani Sinhmar,Elle Lazarski,Deepak Gopinath,Emily S. Sumner,Jonathan A. DeCastro,Guy Rosman,Naomi Ehrich Leonard,Jaime Fernández Fisac
発行日 2025-04-17 02:02:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク