The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits

要約

BitNet などの最近の研究は、1 ビット大規模言語モデル (LLM) の新時代への道を切り開いています。
この研究では、LLM のすべてのパラメータ (または重み) が 3 値の {-1, 0, 1} である 1 ビット LLM のバリアント、つまり BitNet b1.58 を導入します。
これは、複雑さとエンドタスクのパフォーマンスの両方の点で、同じモデル サイズとトレーニング トークンを備えた完全精度 (FP16 または BF16) の Transformer LLM と同等であり、レイテンシ、メモリ、スループットの点でコスト効率が大幅に優れています。
そしてエネルギー消費。
さらに深く言えば、1.58 ビット LLM は、高性能でコスト効率の高い新世代の LLM をトレーニングするための新しいスケーリング則とレシピを定義します。
さらに、新しい計算パラダイムを可能にし、1 ビット LLM に最適化された特定のハードウェアを設計するための扉を開きます。

要約(オリジナル)

Recent research, such as BitNet, is paving the way for a new era of 1-bit Large Language Models (LLMs). In this work, we introduce a 1-bit LLM variant, namely BitNet b1.58, in which every single parameter (or weight) of the LLM is ternary {-1, 0, 1}. It matches the full-precision (i.e., FP16 or BF16) Transformer LLM with the same model size and training tokens in terms of both perplexity and end-task performance, while being significantly more cost-effective in terms of latency, memory, throughput, and energy consumption. More profoundly, the 1.58-bit LLM defines a new scaling law and recipe for training new generations of LLMs that are both high-performance and cost-effective. Furthermore, it enables a new computation paradigm and opens the door for designing specific hardware optimized for 1-bit LLMs.

arxiv情報

著者 Shuming Ma,Hongyu Wang,Lingxiao Ma,Lei Wang,Wenhui Wang,Shaohan Huang,Li Dong,Ruiping Wang,Jilong Xue,Furu Wei
発行日 2024-02-27 18:56:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク