要約
BitNet などの最近の研究は、1 ビット大規模言語モデル (LLM) の新時代への道を切り開いています。
この研究では、LLM のすべてのパラメータ (または重み) が 3 値の {-1, 0, 1} である 1 ビット LLM のバリアント、つまり BitNet b1.58 を導入します。
これは、複雑さとエンドタスクのパフォーマンスの両方の点で、同じモデル サイズとトレーニング トークンを備えた完全精度 (FP16 または BF16) の Transformer LLM と同等であり、レイテンシ、メモリ、スループットの点でコスト効率が大幅に優れています。
そしてエネルギー消費。
さらに深く言えば、1.58 ビット LLM は、高性能でコスト効率の高い新世代の LLM をトレーニングするための新しいスケーリング則とレシピを定義します。
さらに、新しい計算パラダイムを可能にし、1 ビット LLM に最適化された特定のハードウェアを設計するための扉を開きます。
要約(オリジナル)
Recent research, such as BitNet, is paving the way for a new era of 1-bit Large Language Models (LLMs). In this work, we introduce a 1-bit LLM variant, namely BitNet b1.58, in which every single parameter (or weight) of the LLM is ternary {-1, 0, 1}. It matches the full-precision (i.e., FP16 or BF16) Transformer LLM with the same model size and training tokens in terms of both perplexity and end-task performance, while being significantly more cost-effective in terms of latency, memory, throughput, and energy consumption. More profoundly, the 1.58-bit LLM defines a new scaling law and recipe for training new generations of LLMs that are both high-performance and cost-effective. Furthermore, it enables a new computation paradigm and opens the door for designing specific hardware optimized for 1-bit LLMs.
arxiv情報
著者 | Shuming Ma,Hongyu Wang,Lingxiao Ma,Lei Wang,Wenhui Wang,Shaohan Huang,Li Dong,Ruiping Wang,Jilong Xue,Furu Wei |
発行日 | 2024-02-27 18:56:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google