要約
ニューラル ネットワークで学習したニューラル表現を比較することは、困難ではありますが重要な問題であり、さまざまな方法でアプローチされてきました。
Centered Kernel Alignment (CKA) 類似性メトリック、特にその線形バリアントは、最近一般的なアプローチになり、ネットワークの異なるレイヤー、異なる方法でトレーニングされたアーキテクチャ的に類似したネットワーク、または異なるアーキテクチャでトレーニングされたモデルの表現を比較するために広く使用されています。
同じデータ。
これらのさまざまな表現の類似性と非類似性に関するさまざまな結論が、CKA を使用して作成されています。
この作業では、最新の機械学習のコンテキストで自然に発生する可能性がある、単純な変換の大規模なクラスに対する CKA 感度を正式に特徴付ける分析を提示します。
これは、過去の研究で観察された外れ値に対するCKAの感度、および重要な一般化属性であるデータの線形分離性を保持する変換に対する具体的な説明を提供します。
CKA 類似度メトリックのいくつかの弱点を経験的に調査し、予想外または直感に反する結果が得られる状況を示します。
最後に、CKA値を変更しながら機能的動作を維持するために表現を変更するためのアプローチを研究します。
私たちの結果は、多くの場合、モデルの機能的動作を大幅に変更することなくCKA値を簡単に操作できることを示しており、アクティベーションアライメントメトリックを活用する場合は注意が必要です.
要約(オリジナル)
Comparing learned neural representations in neural networks is a challenging but important problem, which has been approached in different ways. The Centered Kernel Alignment (CKA) similarity metric, particularly its linear variant, has recently become a popular approach and has been widely used to compare representations of a network’s different layers, of architecturally similar networks trained differently, or of models with different architectures trained on the same data. A wide variety of conclusions about similarity and dissimilarity of these various representations have been made using CKA. In this work we present analysis that formally characterizes CKA sensitivity to a large class of simple transformations, which can naturally occur in the context of modern machine learning. This provides a concrete explanation of CKA sensitivity to outliers, which has been observed in past works, and to transformations that preserve the linear separability of the data, an important generalization attribute. We empirically investigate several weaknesses of the CKA similarity metric, demonstrating situations in which it gives unexpected or counter-intuitive results. Finally we study approaches for modifying representations to maintain functional behaviour while changing the CKA value. Our results illustrate that, in many cases, the CKA value can be easily manipulated without substantial changes to the functional behaviour of the models, and call for caution when leveraging activation alignment metrics.
arxiv情報
著者 | MohammadReza Davari,Stefan Horoi,Amine Natik,Guillaume Lajoie,Guy Wolf,Eugene Belilovsky |
発行日 | 2022-10-28 14:32:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google