And/or trade-off in artificial neurons: impact on adversarial robustness

要約

ニューラル ネットワークの成功にもかかわらず、分類の堅牢性の問題は依然として残されており、特に敵対的な例によって浮き彫りになっています。
この論文では、純粋な AND ゲートから純粋な OR ゲートに至るまで、人工ニューロンに実装される一連の機能に焦点を当てることで、この課題に取り組みます。
私たちの仮説は、ネットワーク内に十分な数の OR 様ニューロンが存在すると、分類が脆弱になり、敵対的攻撃に対する脆弱性が増大する可能性があるというものです。
AND 様ニューロンを定義し、ネットワーク内でのその割合を増やすための対策を提案します。
これらの対策には、入力を [-1,1] 区間に再スケーリングし、シグモイド活性化関数の最も急なセクションの点の数を減らすことが含まれます。
私たちの方法の重要な要素は、実際のデータセットが与えられたときのニューロンの出力分布と、「スクランブルされたデータセット」と呼ばれるランダム化されたバージョンとの比較です。
MNIST データセットに関する実験結果は、私たちのアプローチがさらなる探索の方向性として有望であることを示唆しています。

要約(オリジナル)

Despite the success of neural networks, the issue of classification robustness remains, particularly highlighted by adversarial examples. In this paper, we address this challenge by focusing on the continuum of functions implemented in artificial neurons, ranging from pure AND gates to pure OR gates. Our hypothesis is that the presence of a sufficient number of OR-like neurons in a network can lead to classification brittleness and increased vulnerability to adversarial attacks. We define AND-like neurons and propose measures to increase their proportion in the network. These measures involve rescaling inputs to the [-1,1] interval and reducing the number of points in the steepest section of the sigmoidal activation function. A crucial component of our method is the comparison between a neuron’s output distribution when fed with the actual dataset and a randomised version called the ‘scrambled dataset.’ Experimental results on the MNIST dataset suggest that our approach holds promise as a direction for further exploration.

arxiv情報

著者 Alessandro Fontana
発行日 2023-05-22 15:37:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク