Incorporating System-level Safety Requirements in Perception Models via Reinforcement Learning

要約

自律システムの知覚コンポーネントは、精度、精度、再現率などの確立されたパフォーマンス指標に依存して、下流の意思決定および制御コンポーネントとは独立して開発および最適化されることがよくあります。
クロスエントロピー損失や負の対数尤度などの従来の損失関数は、誤分類エラーの削減に焦点を当てていますが、システムレベルの安全性への影響を考慮しておらず、これらのエラーによって引き起こされるシステムレベルの障害のさまざまな重大度を見落としています。
この制限に対処するために、システムレベルの安全目標を理解して知覚コンポーネントを強化する新しいトレーニング パラダイムを提案します。
私たちのアプローチの中心となるのは、ルールブックの形式主義を使用して正式に指定されたシステムレベルの安全要件を安全スコアに変換することです。
これらのスコアは、システムレベルの安全目標に合わせて知覚モデルを微調整するための強化学習フレームワークの報酬関数に組み込まれます。
シミュレーション結果は、このアプローチでトレーニングされたモデルが、システムレベルの安全性の点でベースラインの知覚モデルよりも優れていることを示しています。

要約(オリジナル)

Perception components in autonomous systems are often developed and optimized independently of downstream decision-making and control components, relying on established performance metrics like accuracy, precision, and recall. Traditional loss functions, such as cross-entropy loss and negative log-likelihood, focus on reducing misclassification errors but fail to consider their impact on system-level safety, overlooking the varying severities of system-level failures caused by these errors. To address this limitation, we propose a novel training paradigm that augments the perception component with an understanding of system-level safety objectives. Central to our approach is the translation of system-level safety requirements, formally specified using the rulebook formalism, into safety scores. These scores are then incorporated into the reward function of a reinforcement learning framework for fine-tuning perception models with system-level safety objectives. Simulation results demonstrate that models trained with this approach outperform baseline perception models in terms of system-level safety.

arxiv情報

著者 Weisi Fan,Jesse Lane,Qisai Liu,Soumik Sarkar,Tichakorn Wongpiromsarn
発行日 2024-12-04 01:40:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク