Efficient Human-in-the-loop System for Guiding DNNs Attention

要約

注意ガイダンスは、深層学習におけるデータセットのバイアスに対処するためのアプローチであり、モデルは誤った機能に依存して意思決定を行います。
画像分類タスクに焦点を当て、ユーザーが指定した領域に分類器の注意をインタラクティブに向ける効率的なヒューマンインザループシステムを提案します。これにより、共起バイアスの影響を減らし、DNNの転送可能性と解釈可能性を向上させます。

注意ガイダンスの以前のアプローチでは、ピクセルレベルの注釈を準備する必要があり、インタラクティブシステムとして設計されていません。
ユーザーがクリックするだけで画像に注釈を付けることができる新しいインタラクティブな方法を紹介し、注釈の数を大幅に減らすための新しいアクティブラーニング戦略を研究します。
複数のデータセットで提案されたシステムを評価するために、数値評価とユーザー調査の両方を実施しました。
DNNを微調整またはトレーニングするために通常大量のポリゴンベースのセグメンテーションマスクに依存する既存の非アクティブラーニングアプローチと比較して、私たちのシステムは多くの労力とお金を節約し、よりよく機能する微調整されたネットワークを取得できます
データセットにバイアスがかかっている場合でも。
実験結果は、提案されたシステムが効率的で、合理的で、信頼できることを示しています。

要約(オリジナル)

Attention guidance is an approach to addressing dataset bias in deep learning, where the model relies on incorrect features to make decisions. Focusing on image classification tasks, we propose an efficient human-in-the-loop system to interactively direct the attention of classifiers to the regions specified by users, thereby reducing the influence of co-occurrence bias and improving the transferability and interpretability of a DNN. Previous approaches for attention guidance require the preparation of pixel-level annotations and are not designed as interactive systems. We present a new interactive method to allow users to annotate images with simple clicks, and study a novel active learning strategy to significantly reduce the number of annotations. We conducted both a numerical evaluation and a user study to evaluate the proposed system on multiple datasets. Compared to the existing non-active-learning approach which usually relies on huge amounts of polygon-based segmentation masks to fine-tune or train the DNNs, our system can save lots of labor and money and obtain a fine-tuned network that works better even when the dataset is biased. The experiment results indicate that the proposed system is efficient, reasonable, and reliable.

arxiv情報

著者 Yi He,Xi Yang,Chia-Ming Chang,Haoran Xie,Takeo Igarashi
発行日 2022-06-13 09:04:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.HC, cs.LG パーマリンク