The Boundaries of Verifiable Accuracy, Robustness, and Generalisation in Deep Learning

要約

この研究では、分類タスクにおけるニューラル ネットワークの保証された安定性と精度を決定する際の理論的限界を評価します。
私たちは、経験的リスクを最小限に抑え、潜在的にいくつかの重みの正則化を受ける可能性がある、古典的な分布に依存しないフレームワークとアルゴリズムを考慮します。
我々は、たとえそのような理想的なソリューションが特定のクラスのニューラル アーキテクチャ内に存在する場合でも、上記の設定で理想的な安定した正確なニューラル ネットワークを計算して検証することは、たとえ可能であったとしても非常に困難なタスクの大きなファミリーが存在することを示します。

要約(オリジナル)

In this work, we assess the theoretical limitations of determining guaranteed stability and accuracy of neural networks in classification tasks. We consider classical distribution-agnostic framework and algorithms minimising empirical risks and potentially subjected to some weights regularisation. We show that there is a large family of tasks for which computing and verifying ideal stable and accurate neural networks in the above settings is extremely challenging, if at all possible, even when such ideal solutions exist within the given class of neural architectures.

arxiv情報

著者 Alexander Bastounis,Alexander N. Gorban,Anders C. Hansen,Desmond J. Higham,Danil Prokhorov,Oliver Sutton,Ivan Y. Tyukin,Qinghua Zhou
発行日 2023-09-13 16:33:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T05, 68T07, cs.LG パーマリンク