要約
3D 点群は、モバイル デバイスでの自動運転や 3D センシングなど、多くのモバイル アプリケーション シナリオで広く使用されています。
ただし、既存の 3D 点群モデルは大きくて扱いにくい傾向があり、高いメモリ要件と非リアルタイム遅延によりエッジ デバイスに展開することが困難です。
3D 点群モデルを軽量モデルに圧縮する方法に関する研究は不足していました。
この論文では、この問題に対処するために、T3DNet (Tiny 3D Network with augmEntation and disTillation) と呼ばれる方法を提案します。
ネットワーク拡張後の小さなモデルは、教師にとってはるかに簡単に抽出できることがわかりました。
枝刈りや量子化などの手法でパラメータを徐々に減らすのではなく、小さなモデルを事前定義し、拡張されたネットワークと元のモデルからの補助的な監視を通じてそのパフォーマンスを向上させます。
ModelNet40、ShapeNet、ScanObjectNN などのいくつかの公開データセットでメソッドを評価します。
私たちの方法は、精度を大幅に犠牲にすることなく高い圧縮率を達成でき、既存の方法に対して 3 つのデータセットで最先端のパフォーマンスを達成します。
驚くべきことに、私たちの T3DNet は元のモデルよりも 58 倍小さく、54 倍高速ですが、ModelNet40 データセットでの精度降下はわずか 1.4% です。
要約(オリジナル)
3D point cloud has been widely used in many mobile application scenarios, including autonomous driving and 3D sensing on mobile devices. However, existing 3D point cloud models tend to be large and cumbersome, making them hard to deploy on edged devices due to their high memory requirements and non-real-time latency. There has been a lack of research on how to compress 3D point cloud models into lightweight models. In this paper, we propose a method called T3DNet (Tiny 3D Network with augmEntation and disTillation) to address this issue. We find that the tiny model after network augmentation is much easier for a teacher to distill. Instead of gradually reducing the parameters through techniques such as pruning or quantization, we pre-define a tiny model and improve its performance through auxiliary supervision from augmented networks and the original model. We evaluate our method on several public datasets, including ModelNet40, ShapeNet, and ScanObjectNN. Our method can achieve high compression rates without significant accuracy sacrifice, achieving state-of-the-art performances on three datasets against existing methods. Amazingly, our T3DNet is 58 times smaller and 54 times faster than the original model yet with only 1.4% accuracy descent on the ModelNet40 dataset.
arxiv情報
著者 | Zhiyuan Yang,Yunjiao Zhou,Lihua Xie,Jianfei Yang |
発行日 | 2024-02-29 15:35:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google