BOLT: An Automated Deep Learning Framework for Training and Deploying Large-Scale Search and Recommendation Models on Commodity CPU Hardware

要約

汎用 CPU ハードウェア上で効率的に大規模なニューラル ネットワークのトレーニングと推論を行うことは、ディープ ラーニング (DL) 機能の民主化において非常に実用的重要性があります。
現在、数億から数十億のパラメータで構成される大規模なモデルをトレーニングするプロセスでは、GPU などの特殊なハードウェア アクセラレータを広範囲に使用する必要がありますが、これらのアクセラレータを利用できるのは、かなりの資金力を持つ限られた数の機関だけです。
さらに、これらのモデルのトレーニングと導入に関連して、驚くべき二酸化炭素排出量が発生することがよくあります。
このペーパーでは、標準的な CPU ハードウェア上で大規模な検索および推奨モデルをトレーニングするためのスパース ディープ ラーニング ライブラリである BOLT を導入することで、これらの課題に対処するための一歩を踏み出します。
BOLT は、既存の一般的な DL フレームワークのユーザーにとって馴染みのあるモデルを構築するための、柔軟で高レベルの API を提供します。
BOLT は、特殊なハイパーパラメータを自動的に調整することで、スパース ネットワーク トレーニングのアルゴリズムの詳細も抽象化します。
当社では、製品の推奨事項、テキスト分類、グラフ ニューラル ネットワーク、パーソナライゼーションなど、さまざまな情報検索タスクに関して BOLT を評価しています。
私たちが提案したシステムは、最先端の技術を使用して、わずかなコストとエネルギー消費、そして桁違いに速い推論時間で競争力のあるパフォーマンスを達成していることがわかりました。
BOLT は、重大な問題に対処するために複数の企業で導入に成功しており、電子商取引の分野における 1 つの顧客事例を取り上げます。

要約(オリジナル)

Efficient large-scale neural network training and inference on commodity CPU hardware is of immense practical significance in democratizing deep learning (DL) capabilities. Presently, the process of training massive models consisting of hundreds of millions to billions of parameters requires the extensive use of specialized hardware accelerators, such as GPUs, which are only accessible to a limited number of institutions with considerable financial resources. Moreover, there is often an alarming carbon footprint associated with training and deploying these models. In this paper, we take a step towards addressing these challenges by introducing BOLT, a sparse deep learning library for training large-scale search and recommendation models on standard CPU hardware. BOLT provides a flexible, high-level API for constructing models that will be familiar to users of existing popular DL frameworks. By automatically tuning specialized hyperparameters, BOLT also abstracts away the algorithmic details of sparse network training. We evaluate BOLT on a number of information retrieval tasks including product recommendations, text classification, graph neural networks, and personalization. We find that our proposed system achieves competitive performance with state-of-the-art techniques at a fraction of the cost and energy consumption and an order-of-magnitude faster inference time. BOLT has also been successfully deployed by multiple businesses to address critical problems, and we highlight one customer case study in the field of e-commerce.

arxiv情報

著者 Nicholas Meisburger,Vihan Lakshman,Benito Geordie,Joshua Engels,David Torres Ramos,Pratik Pranav,Benjamin Coleman,Benjamin Meisburger,Shubh Gupta,Yashwanth Adunukota,Tharun Medini,Anshumali Shrivastava
発行日 2023-09-12 14:17:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク