要約
敵対的な行動に直面しても信頼できる予測を提供できるモデルを学習することは、近年、機械学習コミュニティの中心的な焦点となっている。この課題は、展開時に遭遇するデータが、モデルが学習された条件からしばしば逸脱することを観察することから生じる。本論文では、配備時の敵対的行動を取り上げ、多様な種類と強度の攻撃に対するモデルの頑健性を評価するための、汎用的で原理的なフレームワークを提案する。当初はサポートベクトル回帰(SVR)に焦点を当てるが、提案するアプローチは、緩和された最適化技術により、学習の幅広い領域に自然に拡張される。我々の結果は、追加のテストデータを必要とせずにモデルの脆弱性を評価することを可能にし、分布のないセットアップで動作する。これらの結果は、モデルの適用性に対する信頼を高めるツールを提供するだけでなく、競合する選択肢の中から選択する際にも役立つ。本論文の後半では、我々の発見が、分布外の枠組みの中で新しい結果を確立するための有用な洞察も提供することを示す。
要約(オリジナル)
Learning models capable of providing reliable predictions in the face of adversarial actions has become a central focus of the machine learning community in recent years. This challenge arises from observing that data encountered at deployment time often deviate from the conditions under which the model was trained. In this paper, we address deployment-time adversarial actions and propose a versatile, well-principled framework to evaluate the model’s robustness against attacks of diverse types and intensities. While we initially focus on Support Vector Regression (SVR), the proposed approach extends naturally to the broad domain of learning via relaxed optimization techniques. Our results enable an assessment of the model vulnerability without requiring additional test data and operate in a distribution-free setup. These results not only provide a tool to enhance trust in the model’s applicability but also aid in selecting among competing alternatives. Later in the paper, we show that our findings also offer useful insights for establishing new results within the out-of-distribution framework.
arxiv情報
| 著者 | Marco C. Campi,Algo Carè,Luis G. Crespo,Simone Garatti,Federico A. Ramponi |
| 発行日 | 2025-05-02 09:16:44+00:00 |
| arxivサイト | arxiv_id(pdf) |