Bridging Dimensions: Confident Reachability for High-Dimensional Controllers

要約

自律システムは、エンドエンドエンドで訓練されたコントローラーを使用して実装されることが増えています。
このようなコントローラーは、主要なセンシング方式の 1 つとして画像を使用して実際のシステム上で実行される決定を行います。
ディープ ニューラル ネットワークは、このようなコントローラーの基本的な構成要素を形成します。
残念ながら、既存のニューラル ネットワーク検証ツールは、数千次元の入力に対応できません。
特に、個々の入力 (ピクセルなど) に明確な物理的意味がない場合はそうです。
この論文は、徹底的な閉ループ検証を高次元コントローラーと接続するための一歩を踏み出します。
私たちの重要な洞察は、高次元コントローラーの動作は、状態空間の異なる領域にあるいくつかの低次元コントローラーで近似できるということです。
近似と検証可能性のバランスをとるために、最新の検証を意識した知識の抽出を活用します。
次に、低次元の到達可能性の結果が統計的近似誤差で膨らんだ場合、高次元のコントローラーに対する信頼性の高い到達可能性の保証が得られます。
私たちは、軌道とアクションに基づいた 2 つのインフレ手法を調査しました。どちらも、2 つの OpenAI ジム ベンチマークで説得力のあるパフォーマンスを示しています。

要約(オリジナル)

Autonomous systems are increasingly implemented using end-end-end trained controllers. Such controllers make decisions that are executed on the real system with images as one of the primary sensing modalities. Deep neural networks form a fundamental building block of such controllers. Unfortunately, the existing neural-network verification tools do not scale to inputs with thousands of dimensions. Especially when the individual inputs (such as pixels) are devoid of clear physical meaning. This paper takes a step towards connecting exhaustive closed-loop verification with high-dimensional controllers. Our key insight is that the behavior of a high-dimensional controller can be approximated with several low-dimensional controllers in different regions of the state space. To balance approximation and verifiability, we leverage the latest verification-aware knowledge distillation. Then, if low-dimensional reachability results are inflated with statistical approximation errors, they yield a high-confidence reachability guarantee for the high-dimensional controller. We investigate two inflation techniques — based on trajectories and actions — both of which show convincing performance in two OpenAI gym benchmarks.

arxiv情報

著者 Yuang Geng,Souradeep Dutta,Ivan Ruchkin
発行日 2023-11-08 17:26:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク