The Third International Verification of Neural Networks Competition (VNN-COMP 2022): Summary and Results

要約

このレポートは、第 34 回国際コンピューター会議と併催された ML 対応自律システムの形式手法に関する第 5 回ワークショップ (FoMLAS) の一環として開催された、第 3 回ニューラル ネットワーク コンペティションの国際検証 (VNN-COMP 2022) をまとめたものです。
検証支援 (CAV)。
VNN-COMP は、最先端のニューラル ネットワーク検証ツールの公正かつ客観的な比較を促進し、ツール インターフェイスの標準化を促進し、ニューラル ネットワーク検証コミュニティをまとめるために毎年開催されます。
この目的のために、ネットワーク (ONNX) と仕様 (VNN-LIB) の標準化されたフォーマットが定義され、ツールは (AWS インスタンスに基づく自動評価パイプラインを使用して) 等コストのハードウェアで評価され、ツールのパラメーターは事前に参加者によって選択されました。
最終的なテスト セットが公開されました。
2022 年のイテレーションでは、11 チームが 12 のスコア付きベンチマークの多様なセットに参加しました。
このレポートは、ルール、ベンチマーク、参加ツール、結果、およびこのコンテストの繰り返しから学んだ教訓をまとめたものです。

要約(オリジナル)

This report summarizes the 3rd International Verification of Neural Networks Competition (VNN-COMP 2022), held as a part of the 5th Workshop on Formal Methods for ML-Enabled Autonomous Systems (FoMLAS), which was collocated with the 34th International Conference on Computer-Aided Verification (CAV). VNN-COMP is held annually to facilitate the fair and objective comparison of state-of-the-art neural network verification tools, encourage the standardization of tool interfaces, and bring together the neural network verification community. To this end, standardized formats for networks (ONNX) and specification (VNN-LIB) were defined, tools were evaluated on equal-cost hardware (using an automatic evaluation pipeline based on AWS instances), and tool parameters were chosen by the participants before the final test sets were made public. In the 2022 iteration, 11 teams participated on a diverse set of 12 scored benchmarks. This report summarizes the rules, benchmarks, participating tools, results, and lessons learned from this iteration of this competition.

arxiv情報

著者 Mark Niklas Müller,Christopher Brix,Stanley Bak,Changliu Liu,Taylor T. Johnson
発行日 2023-02-16 08:06:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.SE パーマリンク