要約
深い分類のための多数のアーキテクチャの変形が時間の経過とともに導入されてきましたが、最近の研究では、トレーニングプロセスの類似性に向けた経験的証拠が見つかりました。
ニューラルネットワークは、同様の表現に収束するだけでなく、データインスタンスが最初に学習されるという経験的合意の概念も示すという仮説が立てられています。
後者の作業$’$の足跡をたどって、時間の経過に伴うそのような分類合意間の関係を定量化するためのメトリックを定義し、合意現象を調査対象のデータセットのコア統計にマッピングできると仮定します。
この仮説は、CIFAR10、Pascal、ImageNet、およびKTH-TIPS2データセット全体で経験的に裏付けられています。
私たちの調査結果は、画像統計による順序付けに従っているにもかかわらず、合意は特定のアーキテクチャ、トレーニングハイパーパラメータまたはラベルとは無関係であるように見えることを示しています。
要約(オリジナル)
Although a plethora of architectural variants for deep classification has been introduced over time, recent works have found empirical evidence towards similarities in their training process. It has been hypothesized that neural networks converge not only to similar representations, but also exhibit a notion of empirical agreement on which data instances are learned first. Following in the latter works$’$ footsteps, we define a metric to quantify the relationship between such classification agreement over time, and posit that the agreement phenomenon can be mapped to core statistics of the investigated dataset. We empirically corroborate this hypothesis across the CIFAR10, Pascal, ImageNet and KTH-TIPS2 datasets. Our findings indicate that agreement seems to be independent of specific architectures, training hyper-parameters or labels, albeit follows an ordering according to image statistics.
arxiv情報
著者 | Iuliia Pliushch,Martin Mundt,Nicolas Lupp,Visvanathan Ramesh |
発行日 | 2022-07-19 14:08:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google