Volterra Neural Networks (VNNs)

要約

機械学習 (ML) における推論の重要性により、ML、特に深層学習において爆発的な数のさまざまな提案が生まれています。
畳み込みニューラル ネットワークの複雑さを軽減するために、私たちは Volterra フィルターにインスピレーションを得たネットワーク アーキテクチャを提案します。
このアーキテクチャでは、データの遅延入力サンプル間の相互作用の形で制御された非線形性が導入されます。
従来のニューラル ネットワークと同じ分類タスクを実行するために必要なパラメータの数を大幅に削減するために、ボルテラ フィルタリングのカスケード実装を提案します。
この Volterra Neural Network (VNN) の効率的な並列実装と、比較的単純で潜在的により扱いやすい構造を維持しながら、その驚くべきパフォーマンスを実証します。
さらに、アクション認識のためにビデオ シーケンスの RGB (空間) 情報とオプティカル フロー (時間) 情報を非線形融合する、このネットワークのかなり洗練された適応を示します。
提案されたアプローチは、アクション認識用の UCF-101 および HMDB-51 データセットで評価され、最先端の CNN アプローチを上回るパフォーマンスを示すことが示されています。

要約(オリジナル)

The importance of inference in Machine Learning (ML) has led to an explosive number of different proposals in ML, and particularly in Deep Learning. In an attempt to reduce the complexity of Convolutional Neural Networks, we propose a Volterra filter-inspired Network architecture. This architecture introduces controlled non-linearities in the form of interactions between the delayed input samples of data. We propose a cascaded implementation of Volterra Filtering so as to significantly reduce the number of parameters required to carry out the same classification task as that of a conventional Neural Network. We demonstrate an efficient parallel implementation of this Volterra Neural Network (VNN), along with its remarkable performance while retaining a relatively simpler and potentially more tractable structure. Furthermore, we show a rather sophisticated adaptation of this network to nonlinearly fuse the RGB (spatial) information and the Optical Flow (temporal) information of a video sequence for action recognition. The proposed approach is evaluated on UCF-101 and HMDB-51 datasets for action recognition, and is shown to outperform state of the art CNN approaches.

arxiv情報

著者 Siddharth Roheda,Hamid Krim
発行日 2023-06-15 16:06:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク