MTL-Split: Multi-Task Learning for Edge Devices using Split Computing

要約

スプリット コンピューティング (SC) は、ディープ ニューラル ネットワーク (DNN) をインテリジェントに分割して、その一部をエッジ デバイスにデプロイし、残りをリモート サーバーに展開するもので、有望なアプローチとして浮上しています。
これにより、ローカルで利用できる十分な計算帯域幅がない一方で、DNN 全体をリモートに展開することができない、遅延に敏感なアプリケーションに DNN の能力を活用することができます。
自動車分野などの組み込みシステムのシナリオの多くでは、計算リソースの制約により、タスクごとに専用の DNN を用意するのではなく、同じ DNN を複数の推論タスクに使用するマルチタスク学習 (MTL) も必要になります。
より多くのコンピューティング帯域幅。
ただし、このようなマルチタスク DNN を SC フレームワーク内に展開するためにどのように分割するかについては十分に検討されていません。
この論文ではこの問題を研究しており、私たちが提案する新しいアーキテクチャである MTL-Split は、合成データと現実世界のデータの両方で有望な結果を示しています。
ソース コードは https://github.com/intelligolabs/MTL-Split で入手できます。

要約(オリジナル)

Split Computing (SC), where a Deep Neural Network (DNN) is intelligently split with a part of it deployed on an edge device and the rest on a remote server is emerging as a promising approach. It allows the power of DNNs to be leveraged for latency-sensitive applications that do not allow the entire DNN to be deployed remotely, while not having sufficient computation bandwidth available locally. In many such embedded systems scenarios, such as those in the automotive domain, computational resource constraints also necessitate Multi-Task Learning (MTL), where the same DNN is used for multiple inference tasks instead of having dedicated DNNs for each task, which would need more computing bandwidth. However, how to partition such a multi-tasking DNN to be deployed within a SC framework has not been sufficiently studied. This paper studies this problem, and MTL-Split, our novel proposed architecture, shows encouraging results on both synthetic and real-world data. The source code is available at https://github.com/intelligolabs/MTL-Split.

arxiv情報

著者 Luigi Capogrosso,Enrico Fraccaroli,Samarjit Chakraborty,Franco Fummi,Marco Cristani
発行日 2024-07-08 14:25:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク