A Multi-task Supervised Compression Model for Split Computing

要約

スプリットコンピューティング(分割学習)は、リソースに制約のあるエッジコンピューティングシステムのための深層学習モデルへの有望なアプローチである。スプリット・コンピューティングに関する最先端の研究は、画像分類、物体検出、意味的セグメンテーションなどの単一タスクのための手法を提示している。既存の手法をマルチタスク問題に適用すると、モデルの精度が低下したり、実行時の待ち時間が大幅に増加したりする。本研究では、マルチタスク分割計算のための最初のマルチタスクヘッド教師付き圧縮モデルであるLadonを提案する。実験の結果、マルチタスク教師付き圧縮モデルは、その初期層で圧縮表現を学習しながら、ILSVRC 2012、COCO 2017、PASCAL VOC 2012データセットに対する予測性能の点で、強力な軽量ベースラインモデルを上回る、あるいは匹敵することが示された。さらに、我々のモデルは、マルチタスク分割コンピューティングシナリオにおいて、エンドツーエンドのレイテンシ(最大95.4%)とモバイルデバイスのエネルギー消費(最大88.2%)を削減した。

要約(オリジナル)

Split computing ($\neq$ split learning) is a promising approach to deep learning models for resource-constrained edge computing systems, where weak sensor (mobile) devices are wirelessly connected to stronger edge servers through channels with limited communication capacity. State-of-theart work on split computing presents methods for single tasks such as image classification, object detection, or semantic segmentation. The application of existing methods to multitask problems degrades model accuracy and/or significantly increase runtime latency. In this study, we propose Ladon, the first multi-task-head supervised compression model for multi-task split computing. Experimental results show that the multi-task supervised compression model either outperformed or rivaled strong lightweight baseline models in terms of predictive performance for ILSVRC 2012, COCO 2017, and PASCAL VOC 2012 datasets while learning compressed representations at its early layers. Furthermore, our models reduced end-to-end latency (by up to 95.4%) and energy consumption of mobile devices (by up to 88.2%) in multi-task split computing scenarios.

arxiv情報

著者 Yoshitomo Matsubara,Matteo Mendula,Marco Levorato
発行日 2025-01-02 18:59:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク