要約
ユビキタスなモノのインターネット (IoT) デバイスに高性能のビジョン トランスフォーマー (ViT) モデルを展開して、高品質のビジョン サービスを提供することで、私たちの生活、仕事、世界との関わり方に革命がもたらされます。
IoT デバイスの限られたリソースと、リソース集約型の ViT モデルとの間の矛盾により、クラウド サーバーを使用して ViT モデルのトレーニングを支援することが主流になりました。
ただし、既存の ViT モデルのパラメーターと浮動小数点演算 (FLOP) の数が多いため、クラウド サーバーによって送信されるモデル パラメーターは大きく、リソースに制約のある IoT デバイスで実行することは困難です。
この目的のために、このホワイト ペーパーでは、クラウド サーバーの支援を受けて、リソースに制約のある IoT デバイスに展開するための、伝送に適した ViT モデル TFormer を提案します。
TFormer の高性能で少数のモデル パラメーターと FLOP は、提案されたハイブリッド レイヤーと提案された部分接続フィード フォワード ネットワーク (PCS-FFN) によるものです。
ハイブリッド層は、学習不可能なモジュールとポイントごとの畳み込みで構成され、わずかなパラメーターと FLOP でマルチタイプおよびマルチスケールの機能を取得して、TFormer のパフォーマンスを向上させることができます。
PCS-FFN では、グループ畳み込みを採用してパラメータ数を削減しています。
このホワイト ペーパーの重要なアイデアは、リソースに制約のある IoT デバイス上で実行されるアプリケーションが ViT モデルの高いパフォーマンスを活用できるように、いくつかのモデル パラメーターと FLOP を使用して TFormer を提案することです。
画像分類、オブジェクト検出、セマンティック セグメンテーション タスクに関する ImageNet-1K、MS COCO、および ADE20K データセットの実験結果は、提案されたモデルが他の最先端のモデルより優れていることを示しています。
具体的には、TFormer-S は、1.4$\times$ 少ないパラメーターと FLOP で、ResNet18 よりも ImageNet-1K で 5% 高い精度を実現します。
要約(オリジナル)
Deploying high-performance vision transformer (ViT) models on ubiquitous Internet of Things (IoT) devices to provide high-quality vision services will revolutionize the way we live, work, and interact with the world. Due to the contradiction between the limited resources of IoT devices and resource-intensive ViT models, the use of cloud servers to assist ViT model training has become mainstream. However, due to the larger number of parameters and floating-point operations (FLOPs) of the existing ViT models, the model parameters transmitted by cloud servers are large and difficult to run on resource-constrained IoT devices. To this end, this paper proposes a transmission-friendly ViT model, TFormer, for deployment on resource-constrained IoT devices with the assistance of a cloud server. The high performance and small number of model parameters and FLOPs of TFormer are attributed to the proposed hybrid layer and the proposed partially connected feed-forward network (PCS-FFN). The hybrid layer consists of nonlearnable modules and a pointwise convolution, which can obtain multitype and multiscale features with only a few parameters and FLOPs to improve the TFormer performance. The PCS-FFN adopts group convolution to reduce the number of parameters. The key idea of this paper is to propose TFormer with few model parameters and FLOPs to facilitate applications running on resource-constrained IoT devices to benefit from the high performance of the ViT models. Experimental results on the ImageNet-1K, MS COCO, and ADE20K datasets for image classification, object detection, and semantic segmentation tasks demonstrate that the proposed model outperforms other state-of-the-art models. Specifically, TFormer-S achieves 5% higher accuracy on ImageNet-1K than ResNet18 with 1.4$\times$ fewer parameters and FLOPs.
arxiv情報
著者 | Zhichao Lu,Chuntao Ding,Felix Juefei-Xu,Vishnu Naresh Boddeti,Shangguang Wang,Yun Yang |
発行日 | 2023-02-15 15:36:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google