Sample-Efficient Safety Assurances using Conformal Prediction

要約

リスクの高いロボティクス アプリケーションに機械学習モデルを導入する場合、危険な状況を検出する機能は非常に重要です。
早期警告システムは、危険な状況が差し迫っている場合 (是正措置がない場合) に警告を発することができます。
安全性を確実に向上させるために、これらの警告システムには証明可能な偽陰性率が必要です。
つまり、危険な状況のうち、アラートなしで発生するのは $\epsilon$ 未満です。
この作業では、わずか $1/
\epsilon$ データ ポイント。
フレームワークをドライバー警告システムとロボット把持アプリケーションに適用し、低い誤検出 (陽性) 率を観察しながら、保証された誤検出率を経験的に示します。

要約(オリジナル)

When deploying machine learning models in high-stakes robotics applications, the ability to detect unsafe situations is crucial. Early warning systems can provide alerts when an unsafe situation is imminent (in the absence of corrective action). To reliably improve safety, these warning systems should have a provable false negative rate; i.e. of the situations that are unsafe, fewer than $\epsilon$ will occur without an alert. In this work, we present a framework that combines a statistical inference technique known as conformal prediction with a simulator of robot/environment dynamics, in order to tune warning systems to provably achieve an $\epsilon$ false negative rate using as few as $1/\epsilon$ data points. We apply our framework to a driver warning system and a robotic grasping application, and empirically demonstrate guaranteed false negative rate while also observing low false detection (positive) rate.

arxiv情報

著者 Rachel Luo,Shengjia Zhao,Jonathan Kuck,Boris Ivanovic,Silvio Savarese,Edward Schmerling,Marco Pavone
発行日 2023-02-20 00:16:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク