Towards Efficient Formal Verification of Spiking Neural Network

要約

最近の AI 研究は主に大規模言語モデル (LLM) に焦点を当てており、精度の向上にはスケールアップと消費電力の増加が伴うことがよくあります。
AI の電力消費は重大な社会問題となっています。
この文脈では、スパイキング ニューラル ネットワーク (SNN) が有望なソリューションを提供します。
SNN は人間の脳のようにイベント駆動で動作し、情報を時間的に圧縮します。
これらの特性により、SNN はパーセプトロンベースの人工ニューラル ネットワーク (ANN) と比較して消費電力を大幅に削減でき、次世代ニューラル ネットワーク テクノロジとして注目されています。
しかし、AI に対する社会の懸念は消費電力だけに留まらず、AI モデルの信頼性が世界的な問題となっています。
たとえば、AI モデルに対する敵対的攻撃は、従来のニューラル ネットワークのコンテキストでよく研究されている問題です。
SNN の重要性にもかかわらず、SNN の安定性と特性の検証はまだ研究の初期段階にあります。
ほとんどの SNN 検証方法は時間がかかり、拡張性がほとんどないため、実際のアプリケーションは困難です。
この論文では、SNN の敵対的堅牢性を検証する際に実用的なパフォーマンスを達成するために時間エンコーディングを導入します。
私たちはこのアプローチの理論的分析を実施し、以前は管理できなかった規模で SNN を検証することに成功したことを実証します。
私たちの貢献により、SNN 検証が実用的なレベルに進歩し、SNN のより安全な適用が促進されます。

要約(オリジナル)

Recently, AI research has primarily focused on large language models (LLMs), and increasing accuracy often involves scaling up and consuming more power. The power consumption of AI has become a significant societal issue; in this context, spiking neural networks (SNNs) offer a promising solution. SNNs operate event-driven, like the human brain, and compress information temporally. These characteristics allow SNNs to significantly reduce power consumption compared to perceptron-based artificial neural networks (ANNs), highlighting them as a next-generation neural network technology. However, societal concerns regarding AI go beyond power consumption, with the reliability of AI models being a global issue. For instance, adversarial attacks on AI models are a well-studied problem in the context of traditional neural networks. Despite their importance, the stability and property verification of SNNs remains in the early stages of research. Most SNN verification methods are time-consuming and barely scalable, making practical applications challenging. In this paper, we introduce temporal encoding to achieve practical performance in verifying the adversarial robustness of SNNs. We conduct a theoretical analysis of this approach and demonstrate its success in verifying SNNs at previously unmanageable scales. Our contribution advances SNN verification to a practical level, facilitating the safer application of SNNs.

arxiv情報

著者 Baekryun Seong,Jieung Kim,Sang-Ki Ko
発行日 2024-08-20 14:43:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.ET, cs.NE パーマリンク