Modelling Long Range Dependencies in N-D: From Task-Specific to a General Purpose CNN

要約

高性能な畳み込みニューラル ネットワーク (CNN) アーキテクチャは、入力データの長さ、解像度、および次元を考慮するために、特定のタスクに合わせて調整する必要があります。
この作業では、問題固有の CNN アーキテクチャの必要性に取り組みます。
連続畳み込みニューラル ネットワーク (CCNN) を提示します。これは、構造を変更することなく、任意の解像度、次元、および長さのデータを処理できる単一の CNN です。
その重要なコンポーネントは、すべてのレイヤーで長距離の依存関係をモデル化する連続畳み込みカーネルであり、タスク依存のダウンサンプリングと深さのための現在の CNN アーキテクチャの必要性を取り除きます。
シーケンシャル ($1{\rm D}$)、ビジュアル ($2{\rm D}$)、ポイント クラウド ($3{\rm D}$) データのタスクに同じアーキテクチャを使用することで、この方法の一般性を示します。
.
私たちの CCNN は、考慮されたすべてのタスクで現在の最先端技術に匹敵し、多くの場合それを上回ります。

要約(オリジナル)

Performant Convolutional Neural Network (CNN) architectures must be tailored to specific tasks in order to consider the length, resolution, and dimensionality of the input data. In this work, we tackle the need for problem-specific CNN architectures. We present the Continuous Convolutional Neural Network (CCNN): a single CNN able to process data of arbitrary resolution, dimensionality and length without any structural changes. Its key component are its continuous convolutional kernels which model long-range dependencies at every layer, and thus remove the need of current CNN architectures for task-dependent downsampling and depths. We showcase the generality of our method by using the same architecture for tasks on sequential ($1{\rm D}$), visual ($2{\rm D}$) and point-cloud ($3{\rm D}$) data. Our CCNN matches and often outperforms the current state-of-the-art across all tasks considered.

arxiv情報

著者 David M. Knigge,David W. Romero,Albert Gu,Efstratios Gavves,Erik J. Bekkers,Jakub M. Tomczak,Mark Hoogendoorn,Jan-Jakob Sonke
発行日 2023-01-25 12:12:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク