Generating Samples to Question Trained Models

要約

機械学習モデルがどのように動作するかを調査する必要性が高まっています。
この作業では、データの好みに疑問を呈して、訓練された機械学習モデルを理解することを目指しています。
訓練されたモデルをプローブし、予測リスク、パラメーターに敏感な、またはモデル制御サンプルなどのさまざまなシナリオで好ましいサンプルを特定できる数学的フレームワークを提案します。
フレームワークを紹介するために、これらのクエリを、さまざまな分類および回帰タスクでトレーニングされたさまざまなモデルにポーズを取り、生成されたデータの形で回答を受け取ります。

要約(オリジナル)

There is a growing need for investigating how machine learning models operate. With this work, we aim to understand trained machine learning models by questioning their data preferences. We propose a mathematical framework that allows us to probe trained models and identify their preferred samples in various scenarios including prediction-risky, parameter-sensitive, or model-contrastive samples. To showcase our framework, we pose these queries to a range of models trained on a range of classification and regression tasks, and receive answers in the form of generated data.

arxiv情報

著者 E. Mehmet Kıral,Nurşen Aydın,Ş. İlker Birbil
発行日 2025-02-10 16:48:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク