Towards Better Certified Segmentation via Diffusion Models

要約

セグメンテーション モデルが製品レベルの精度に達しているため、画像セグメンテーションの堅牢性はここ数年重要な研究テーマとなっています。
ただし、分類モデルと同様に、セグメンテーション モデルは敵対的な摂動に対して脆弱になる可能性があり、医療や自動運転などの重要な意思決定システムでの使用が妨げられます。
最近、理論的な保証を得るために入力にガウス ノイズを追加することでセグメンテーション予測を証明するランダム化平滑化が提案されています。
ただし、この方法では、追加されるノイズの量と達成される認証レベルとの間にトレードオフが生じます。
この論文では、ランダム化された平滑化モデルと拡散モデルの組み合わせを使用してセグメンテーション予測を認証する問題に取り組みます。
私たちの実験では、ランダム化された平滑化モデルと拡散モデルを組み合わせることで、認証された堅牢性が大幅に向上することが示されており、その結果は、Pascal-Context および Cityscapes 公開データセットに対する以前の最先端の手法と比較して、精度が平均 21 ポイント向上したことを示しています。
私たちの方法は選択されたセグメンテーション モデルから独立しており、追加の特殊なトレーニング手順は必要ありません。

要約(オリジナル)

The robustness of image segmentation has been an important research topic in the past few years as segmentation models have reached production-level accuracy. However, like classification models, segmentation models can be vulnerable to adversarial perturbations, which hinders their use in critical-decision systems like healthcare or autonomous driving. Recently, randomized smoothing has been proposed to certify segmentation predictions by adding Gaussian noise to the input to obtain theoretical guarantees. However, this method exhibits a trade-off between the amount of added noise and the level of certification achieved. In this paper, we address the problem of certifying segmentation prediction using a combination of randomized smoothing and diffusion models. Our experiments show that combining randomized smoothing and diffusion models significantly improves certified robustness, with results indicating a mean improvement of 21 points in accuracy compared to previous state-of-the-art methods on Pascal-Context and Cityscapes public datasets. Our method is independent of the selected segmentation model and does not need any additional specialized training procedure.

arxiv情報

著者 Othmane Laousy,Alexandre Araujo,Guillaume Chassagnon,Marie-Pierre Revel,Siddharth Garg,Farshad Khorrami,Maria Vakalopoulou
発行日 2023-06-16 16:30:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク