要約
タイトル:マルチ解像度畳み込みメモリによるシーケンスモデリング
要約:
– 与えられたタスクに対して重要な連続データソースの長期的パターンを効率的にキャプチャすることは、分類や生成モデリングなどの領域で基本的な課題である。
– この論文では、トランスフォーマーや再帰ニューラルネットワークなどのアプローチは、ブルートフォース列挙および比較のメモリ負荷、複雑な順序依存性の計算負荷、または多数の大きなフィルタを持つ畳み込みネットワークのパラメータ負荷の間のトレードオフを示している。
– 代わりに、本研究は、ウェーブレットベースのマルチ解像度解析から着想を得て、新しいシーケンスモデリングのビルディングブロックとしてMultiresLayerを定義することにした。
– モデルの重要なコンポーネントはマルチ解像度畳み込みであり、入力シーケンスのマルチスケールトレンドを捉える。
– MultiresConvは、拡張された因果畳み込みツリー全体で共有フィルタを使用して実装できるため、畳み込みネットワークの計算上の利点とウェーブレット分解の理論的な正当性を兼ね備えている。
– MultiresLayerは実装が簡単であり、パラメータが大幅に減少し、長さ$N$のシーケンスに対して最大で$\mathcal{O}(N\log N)$のメモリフットプリントを維持する。
– しかし、このような層を積み重ねることで、CIFAR-10、ListOps、PTB-XLデータセットを用いたいくつかのシーケンス分類および自己回帰密度推定タスクにおいて、モデルは最新のパフォーマンスを発揮する。
要約(オリジナル)
Efficiently capturing the long-range patterns in sequential data sources salient to a given task — such as classification and generative modeling — poses a fundamental challenge. Popular approaches in the space tradeoff between the memory burden of brute-force enumeration and comparison, as in transformers, the computational burden of complicated sequential dependencies, as in recurrent neural networks, or the parameter burden of convolutional networks with many or large filters. We instead take inspiration from wavelet-based multiresolution analysis to define a new building block for sequence modeling, which we call a MultiresLayer. The key component of our model is the multiresolution convolution, capturing multiscale trends in the input sequence. Our MultiresConv can be implemented with shared filters across a dilated causal convolution tree. Thus it garners the computational advantages of convolutional networks and the principled theoretical motivation of wavelet decompositions. Our MultiresLayer is straightforward to implement, requires significantly fewer parameters, and maintains at most a $\mathcal{O}(N\log N)$ memory footprint for a length $N$ sequence. Yet, by stacking such layers, our model yields state-of-the-art performance on a number of sequence classification and autoregressive density estimation tasks using CIFAR-10, ListOps, and PTB-XL datasets.
arxiv情報
著者 | Jiaxin Shi,Ke Alexander Wang,Emily B. Fox |
発行日 | 2023-05-02 17:50:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI