要約
自律システムは、エンドツーエンドの学習ベースのコントローラーを使用して実装されることが増えています。
このようなコントローラーは、主要なセンシング方式の 1 つとして画像を使用して、実際のシステム上で実行される決定を行います。
ディープ ニューラル ネットワークは、このようなコントローラーの基本的な構成要素を形成します。
残念ながら、既存のニューラル ネットワーク検証ツールは、特に個々の入力 (ピクセルなど) に明確な物理的意味がない場合、数千次元の入力に対応できません。
この論文は、徹底的な閉ループ検証を高次元コントローラーと接続するための一歩を踏み出します。
私たちの重要な洞察は、高次元コントローラーの動作はいくつかの低次元コントローラーで近似できるということです。
低次元コントローラーの近似精度と検証可能性のバランスをとるために、最新の検証を意識した知識の蒸留を活用します。
次に、低次元の到達可能性の結果を統計的近似誤差で膨らませて、高次元のコントローラーに対する信頼性の高い到達可能性の保証を実現します。
私たちは、軌道と制御アクションに基づいた 2 つのインフレ手法を調査しました。どちらも、3 つの OpenAI ジム ベンチマークで説得力のあるパフォーマンスを示しています。
要約(オリジナル)
Autonomous systems are increasingly implemented using end-to-end learning-based controllers. Such controllers make decisions that are executed on the real system, with images as one of the primary sensing modalities. Deep neural networks form a fundamental building block of such controllers. Unfortunately, the existing neural-network verification tools do not scale to inputs with thousands of dimensions — especially when the individual inputs (such as pixels) are devoid of clear physical meaning. This paper takes a step towards connecting exhaustive closed-loop verification with high-dimensional controllers. Our key insight is that the behavior of a high-dimensional controller can be approximated with several low-dimensional controllers. To balance the approximation accuracy and verifiability of our low-dimensional controllers, we leverage the latest verification-aware knowledge distillation. Then, we inflate low-dimensional reachability results with statistical approximation errors, yielding a high-confidence reachability guarantee for the high-dimensional controller. We investigate two inflation techniques — based on trajectories and control actions — both of which show convincing performance in three OpenAI gym benchmarks.
arxiv情報
著者 | Yuang Geng,Jake Brandon Baldauf,Souradeep Dutta,Chao Huang,Ivan Ruchkin |
発行日 | 2024-05-02 15:33:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google