Using Human-like Mechanism to Weaken Effect of Pre-training Weight Bias in Face-Recognition Convolutional Neural Network

要約

畳み込みニューラル ネットワーク (CNN) は、人工知能の重要なモデルとして、さまざまな分野で広く使用され、研究されています。
CNN の計算メカニズムは、その複雑な性質のため、まだ完全には明らかにされていません。
この研究では、十分な証拠を持って神経科学者によって人間に似たモデルとして分析されている、広範囲に研究された 4 つの CNN (AlexNet、VGG11、VGG13、および VGG16) に焦点を当てました。
これらの CNN を転移学習によって感情価分類タスクに訓練しました。
そのパフォーマンスを人間のデータと比較すると、データは、これらの CNN が部分的に人間と同じように動作することを明らかにしました。
次に、神経科学と行動データに基づく自己注意メカニズムを使用して、オブジェクトベースの AlexNet を更新します。
更新された FE-AlexNet は、テストされた他のすべての CNN を上回り、人間の知覚に非常に似ています。
この結果は、これらの CNN の計算メカニズムをさらに明らかにします。
さらに、この研究は、人間のデータを通じて CNN のパフォーマンスをより深く理解し、改善するための新しいパラダイムを提供します。

要約(オリジナル)

Convolutional neural network (CNN), as an important model in artificial intelligence, has been widely used and studied in different disciplines. The computational mechanisms of CNNs are still not fully revealed due to the their complex nature. In this study, we focused on 4 extensively studied CNNs (AlexNet, VGG11, VGG13, and VGG16) which has been analyzed as human-like models by neuroscientists with ample evidence. We trained these CNNs to emotion valence classification task by transfer learning. Comparing their performance with human data, the data unveiled that these CNNs would partly perform as human does. We then update the object-based AlexNet using self-attention mechanism based on neuroscience and behavioral data. The updated FE-AlexNet outperformed all the other tested CNNs and closely resembles human perception. The results further unveil the computational mechanisms of these CNNs. Moreover, this study offers a new paradigm to better understand and improve CNN performance via human data.

arxiv情報

著者 Haojiang Ying,Yi-Fan Li,Yiyang Chen
発行日 2023-10-20 17:22:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, q-bio.NC パーマリンク