Utilizing Excess Resources in Training Neural Networks

要約

この作業では、カーネルフィルタリング線形オーバーパラメーター化(KFLO)を提案します。この場合、トレーニング中にフィルタリングレイヤーの線形カスケードを使用して、テスト時間のネットワークパフォーマンスを向上させます。
このカスケードをカーネルフィルタリング方式で実装します。これにより、トレーニングされたアーキテクチャが不必要に深くなるのを防ぎます。
これにより、ほぼすべてのネットワークアーキテクチャでこのアプローチを使用でき、テスト時にフィルタリングレイヤーを1つのレイヤーに結合できます。
したがって、私たちのアプローチは、推論中に計算の複雑さを追加しません。
教師あり学習のさまざまなネットワークモデルとデータセットでのKFLOの利点を示します。

要約(オリジナル)

In this work, we suggest Kernel Filtering Linear Overparameterization (KFLO), where a linear cascade of filtering layers is used during training to improve network performance in test time. We implement this cascade in a kernel filtering fashion, which prevents the trained architecture from becoming unnecessarily deeper. This also allows using our approach with almost any network architecture and let combining the filtering layers into a single layer in test time. Thus, our approach does not add computational complexity during inference. We demonstrate the advantage of KFLO on various network models and datasets in supervised learning.

arxiv情報

著者 Amit Henig,Raja Giryes
発行日 2022-07-12 13:48:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク