要約
この研究では、画像の顕著な領域に関する人間の判断をディープ畳み込みニューラル ネットワーク (DCNN) トレーニングにどのように導入できるかを調査します。
従来、DCNN のトレーニングは純粋にデータ駆動型でした。
これにより、クラス ラベルと偶然に関連付けられただけのデータの特徴が学習されることがよくあります。
人間の顕著性は、私たちが提案する損失関数の新しいコンポーネントである ConveYs Brain Oversight to Raise Generalization (CYBORG) を使用してネットワーク トレーニングをガイドし、非顕著領域の使用に対してモデルにペナルティを与えることができます。
このメカニズムにより、人間の顕著性のない同じトレーニング データを使用する場合と比較して、より高い精度と一般化を実現する DCNN が生成されます。
実験結果は、CYBORG が複数のネットワーク アーキテクチャと問題領域 (合成顔、虹彩提示攻撃、胸部 X 線写真の異常の検出) に適用できる一方、人間の顕著性ガイダンスなしのトレーニングよりも必要なデータが大幅に少ないことを示しています。
視覚化により、CYBORG でトレーニングされたモデルの顕著性は、従来のトレーニングされたモデルよりも独立したトレーニングの実行全体でより一貫しており、人間との一致性も高いことが示されています。
人間によるアノテーションの収集コストを削減するために、深層学習を使用して自動化されたアノテーションを提供することも検討しています。
CNN の CYBORG トレーニングは、新しいタイプのデータをより適切に一般化することで、大規模なトレーニング セットへの欲求の軽減、解釈可能性の向上、脆弱性の軽減などの重要な問題に対処します。
要約(オリジナル)
This work explores how human judgement about salient regions of an image can be introduced into deep convolutional neural network (DCNN) training. Traditionally, training of DCNNs is purely data-driven. This often results in learning features of the data that are only coincidentally correlated with class labels. Human saliency can guide network training using our proposed new component of the loss function that ConveYs Brain Oversight to Raise Generalization (CYBORG) and penalizes the model for using non-salient regions. This mechanism produces DCNNs achieving higher accuracy and generalization compared to using the same training data without human salience. Experimental results demonstrate that CYBORG applies across multiple network architectures and problem domains (detection of synthetic faces, iris presentation attacks and anomalies in chest X-rays), while requiring significantly less data than training without human saliency guidance. Visualizations show that CYBORG-trained models’ saliency is more consistent across independent training runs than traditionally-trained models, and also in better agreement with humans. To lower the cost of collecting human annotations, we also explore using deep learning to provide automated annotations. CYBORG training of CNNs addresses important issues such as reducing the appetite for large training sets, increasing interpretability, and reducing fragility by generalizing better to new types of data.
arxiv情報
著者 | Aidan Boyd,Patrick Tinsley,Kevin W. Bowyer,Adam Czajka |
発行日 | 2024-10-21 16:52:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google