CMLCompiler: A Unified Compiler for Classical Machine Learning

要約

【タイトル】CMLCompiler:古典的な機械学習のための統合コンパイラ

【要約】
– 古典的な機械学習(CML)は、実際のアプリケーションの機械学習パイプラインの約半分を占めているが、最新のデバイスを十分に活用できず、パフォーマンスが劣る。
– 深層学習(DL)とCMLの混在デプロイメントのための統合フレームワークがないため、パフォーマンスや移植性に問題がある。
– この論文では、CML推論のための統合コンパイラである「CMLCompiler」の設計を提案する。
– 2つの統合抽象化、オペレータ表現と拡張計算グラフを提案する。
– CMLCompilerフレームワークは、2つの統合抽象化に基づく変換とグラフの最適化を実行し、最適化された計算グラフをDLコンパイラまたはフレームワークに出力する。
– CMLCompilerはTVMで実装されており、評価により移植性と優れたパフォーマンスが示されている。スピードアップは、scikit-learn、intel sklearn、ハミングバードなどの最新のソリューションと比較して、CPUで最大4.38倍、GPUで最大3.31倍、IoTデバイスで最大5.09倍である。
– CMLとDLの混在パイプラインのパフォーマンスは、クロスフレームワーク実装と比較して最大で3.04倍のスピードアップが実現された。
– プロジェクトのドキュメントとソースコードは、https://www.computercouncil.org/cmlcompilerにて公開されている。

要約(オリジナル)

Classical machine learning (CML) occupies nearly half of machine learning pipelines in production applications. Unfortunately, it fails to utilize the state-of-the-practice devices fully and performs poorly. Without a unified framework, the hybrid deployments of deep learning (DL) and CML also suffer from severe performance and portability issues. This paper presents the design of a unified compiler, called CMLCompiler, for CML inference. We propose two unified abstractions: operator representations and extended computational graphs. The CMLCompiler framework performs the conversion and graph optimization based on two unified abstractions, then outputs an optimized computational graph to DL compilers or frameworks. We implement CMLCompiler on TVM. The evaluation shows CMLCompiler’s portability and superior performance. It achieves up to 4.38$\times$ speedup on CPU, 3.31$\times$ speedup on GPU, and 5.09$\times$ speedup on IoT devices, compared to the state-of-the-art solutions — scikit-learn, intel sklearn, and hummingbird. Our performance of CML and DL mixed pipelines achieves up to 3.04x speedup compared with cross-framework implementations. The project documents and source code are available at https://www.computercouncil.org/cmlcompiler.

arxiv情報

著者 Xu Wen,Wanling Gao,Anzheng Li,Lei Wang,Zihan Jiang,Jianfeng Zhan
発行日 2023-04-28 06:44:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク