要約
データ スライス検索は、機械学習モデルを評価するための新しい手法です。
これは、指定されたデータセット内でパフォーマンスが低いサブグループを識別することによって機能します。サブグループは、多くの場合、個別の特徴セットまたはメタ情報によって定義されます。
ただし、非構造化画像データのコンテキストでは、データ スライスの検索には 2 つの注目すべき課題が生じます。1 つは追加のメタデータが必要であり、これは手間とコストがかかる要件であり、もう 1 つはデータ スライス内のパフォーマンス低下の根本原因を解釈するための並大抵の努力が必要です。
これらの課題に対処するために、データ スライス ベースの機械学習 (ML) モデル検証用に設計された革新的なヒューマンインザループ ビジュアル分析 (VA) システムである AttributionScanner を導入します。
私たちのアプローチは、解釈可能なデータ スライスの特定、Explainable AI (XAI) 技術のレンズを通して抽出された説明可能な特徴の採用、テキスト注釈やクロスモデル埋め込みの追加メタデータの必要性の排除に優れています。
AttributionScanner は、偽の相関やラベルが間違っているデータなど、モデルの重要な問題を正確に特定する能力を実証します。
当社の新しい VA インターフェイスはデータ スライスを視覚的に要約し、ユーザーがモデルの動作パターンについての洞察を簡単に収集できるようにします。
さらに、私たちのフレームワークは、最先端のニューラル ネットワーク正則化手法を使用して、ドメインの専門家がモデルの問題に対処できるようにすることで、ML 開発サイクルを終了します。
AttributionScanner の有効性は 2 つのプロトタイプの使用例を通じて強調され、視覚中心のタスクのモデル検証におけるその実質的な有効性が明らかになります。
私たちのアプローチは、ML 研究者や実践者がデータ効率の高い方法で解釈可能なモデルの検証を推進する道を開き、最終的にはより信頼性が高く正確なモデルにつながります。
要約(オリジナル)
Data slice-finding is an emerging technique for evaluating machine learning models. It works by identifying subgroups within a specified dataset that exhibit poor performance, often defined by distinct feature sets or meta-information. However, in the context of unstructured image data, data slice-finding poses two notable challenges: it requires additional metadata — a laborious and costly requirement, and also demands non-trivial efforts for interpreting the root causes of the underperformance within data slices. To address these challenges, we introduce AttributionScanner, an innovative human-in-the-loop Visual Analytics (VA) system, designed for data-slicing-based machine learning (ML) model validation. Our approach excels in identifying interpretable data slices, employing explainable features extracted through the lens of Explainable AI (XAI) techniques, and removing the necessity for additional metadata of textual annotations or cross-model embeddings. AttributionScanner demonstrates proficiency in pinpointing critical model issues, including spurious correlations and mislabeled data. Our novel VA interface visually summarizes data slices, enabling users to gather insights into model behavior patterns effortlessly. Furthermore, our framework closes the ML Development Cycle by empowering domain experts to address model issues by using a cutting-edge neural network regularization technique. The efficacy of AttributionScanner is underscored through two prototype use cases, elucidating its substantial effectiveness in model validation for vision-centric tasks. Our approach paves the way for ML researchers and practitioners to drive interpretable model validation in a data-efficient way, ultimately leading to more reliable and accurate models.
arxiv情報
著者 | Xiwei Xuan,Jorge Piazentin Ono,Liang Gou,Kwan-Liu Ma,Liu Ren |
発行日 | 2024-01-12 09:17:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google