Layerwise Change of Knowledge in Neural Networks

要約

この論文は、ディープ ニューラル ネットワーク (DNN) が順伝播の層を通じて新しい知識を徐々に抽出し、ノイズの多い特徴をどのように忘れるかを説明することを目的としています。
これまで、DNN によってエンコードされた知識の定義は合意に達していませんでしたが、これまでの研究により、相互作用を DNN によってエンコードされた記号的な原始推論パターンとして捉える一連の数学的証拠が導出されています。
インタラクションの定義を拡張し、中間層によってエンコードされたインタラクションを初めて抽出します。
私たちは、順伝播中に各層で新たに出現した相互作用と忘れられた相互作用を定量化して追跡し、DNN の学習動作に新たな光を当てます。
インタラクションの層ごとの変化は、DNN の汎化能力の変化と特徴表現の不安定性も明らかにします。

要約(オリジナル)

This paper aims to explain how a deep neural network (DNN) gradually extracts new knowledge and forgets noisy features through layers in forward propagation. Up to now, although the definition of knowledge encoded by the DNN has not reached a consensus, Previous studies have derived a series of mathematical evidence to take interactions as symbolic primitive inference patterns encoded by a DNN. We extend the definition of interactions and, for the first time, extract interactions encoded by intermediate layers. We quantify and track the newly emerged interactions and the forgotten interactions in each layer during the forward propagation, which shed new light on the learning behavior of DNNs. The layer-wise change of interactions also reveals the change of the generalization capacity and instability of feature representations of a DNN.

arxiv情報

著者 Xu Cheng,Lei Cheng,Zhaoran Peng,Yang Xu,Tian Han,Quanshi Zhang
発行日 2024-09-13 10:59:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG パーマリンク