要約
タイトル:シンプルなニューラルネットワークにおける到達可能性
要約:
– 到達可能性問題について、(深層)ニューラルネットワークの複雑さについて調べた
– 到達可能性問題は、ある入力に対して適切な出力を計算するかどうかを問う問題である
– 以前の研究では、一般的なニューラルネットワークと入出力の次元の積で表される線形不等式の連言に対する仕様について、問題がNP完全であると主張された
– 前述の結果にもとづき、シンプルな仕様とニューラルネットワークの制限クラスにおいてもNP困難であることを示した。具体的には、一つの隠れ層と出力次元が1で、負、ゼロ、正の重みまたはバイアスを持つニューラルネットワークであれば十分である。
– さらに、このニューラルネットワークの検証の方向性について、詳細な議論と展望を示した。
要約(オリジナル)
We investigate the complexity of the reachability problem for (deep) neural networks: does it compute valid output given some valid input? It was recently claimed that the problem is NP-complete for general neural networks and specifications over the input/output dimension given by conjunctions of linear inequalities. We recapitulate the proof and repair some flaws in the original upper and lower bound proofs. Motivated by the general result, we show that NP-hardness already holds for restricted classes of simple specifications and neural networks. Allowing for a single hidden layer and an output dimension of one as well as neural networks with just one negative, zero and one positive weight or bias is sufficient to ensure NP-hardness. Additionally, we give a thorough discussion and outlook of possible extensions for this direction of research on neural network verification.
arxiv情報
著者 | Marco Sälzer,Martin Lange |
発行日 | 2023-04-04 06:29:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI