The Power of Typed Affine Decision Structures: A Case Study

要約

タイトル:型付きアフィン決定構造のパワー:事例研究
要約:
・TADS(Typed Affine Decision Structures)はニューラルネットワークの新しい、簡潔な、透過性がある表現方法です。
・本研究では、TADSをニューラルネットワーク検証の問題に適用し、望ましいニューラルネットワークのプロパティに対して証明または簡潔なエラー特性を生成するために使用しました。
・ケーススタディでは、ニューラルネットワークの反撃攻撃への堅牢性(つまり、入力の微小な変化がニューラルネットワークの知覚を大幅に変化させる問題)を考慮し、TADSがどこでどのように堅牢性エラーが発生するかについて正確な診断情報を提供するために使用されることを示しました。
・これらの結果を実現するために、入力空間の与えられた部分においてネットワークの振る舞いを正確に記述するTADSを生成する技術であるPrecondition Projectionを導入し、従来よく理解されている次元圧縮技術であるPCAを組み合わせました。
・PCAはTADSと簡単に互換性があります。TADSの豊かな代数的特性を利用することで、すべての解析は容易に実装でき、ニューラルネットワークの説明可能性と検証のためのTADSフレームワークの有用性を示しています。
・TADSは現在、最新のニューラルネットワーク検証器ほど効率的にスケールするわけではありませんが、PCAベースの簡略化を使用することで、中規模の問題にスケーリングでき、他の目的に使用できるポテンシャルエラーの簡潔な説明を生成することができます。例えば、ネットワークのデバッグや新しいトレーニングサンプルの生成が可能です。

要約(オリジナル)

TADS are a novel, concise white-box representation of neural networks. In this paper, we apply TADS to the problem of neural network verification, using them to generate either proofs or concise error characterizations for desirable neural network properties. In a case study, we consider the robustness of neural networks to adversarial attacks, i.e., small changes to an input that drastically change a neural networks perception, and show that TADS can be used to provide precise diagnostics on how and where robustness errors a occur. We achieve these results by introducing Precondition Projection, a technique that yields a TADS describing network behavior precisely on a given subset of its input space, and combining it with PCA, a traditional, well-understood dimensionality reduction technique. We show that PCA is easily compatible with TADS. All analyses can be implemented in a straightforward fashion using the rich algebraic properties of TADS, demonstrating the utility of the TADS framework for neural network explainability and verification. While TADS do not yet scale as efficiently as state-of-the-art neural network verifiers, we show that, using PCA-based simplifications, they can still scale to mediumsized problems and yield concise explanations for potential errors that can be used for other purposes such as debugging a network or generating new training samples.

arxiv情報

著者 Gerrit Nolte,Maximilian Schlüter,Alnis Murtovi,Bernhard Steffen
発行日 2023-04-28 14:50:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, cs.NE パーマリンク