要約
変圧器のような構造を使用した高度な模倣学習は、ロボット工学においてその利点をますます実証しています。
ただし、これらの大規模モデルを組み込みプラットフォームに展開することは依然として大きな課題です。
この論文では、高度な模倣学習アルゴリズムのエッジ デバイスへの移行を容易にするパイプラインを提案します。
このプロセスは、効率的なモデル圧縮手法と、操作のスムーズさを高める実用的な非同期並列手法 Temporal Ensemble with Dropped Actions (TEDA) によって実現されます。
提案されたパイプラインの効率を示すために、大規模な模倣学習モデルがサーバー上でトレーニングされ、エッジ デバイスに展開されてさまざまな操作タスクを完了します。
要約(オリジナル)
Advanced imitation learning with structures like the transformer is increasingly demonstrating its advantages in robotics. However, deploying these large-scale models on embedded platforms remains a major challenge. In this paper, we propose a pipeline that facilitates the migration of advanced imitation learning algorithms to edge devices. The process is achieved via an efficient model compression method and a practical asynchronous parallel method Temporal Ensemble with Dropped Actions (TEDA) that enhances the smoothness of operations. To show the efficiency of the proposed pipeline, large-scale imitation learning models are trained on a server and deployed on an edge device to complete various manipulation tasks.
arxiv情報
著者 | Haizhou Ge,Ruixiang Wang,Zhu-ang Xu,Hongrui Zhu,Ruichen Deng,Yuhang Dong,Zeyu Pang,Guyue Zhou,Junyu Zhang,Lu Shi |
発行日 | 2024-11-18 09:28:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google