要約
この研究は、大規模言語モデル(LLM)のエンドツーエンドの生成待ち時間を短縮することを目的としている。高い生成待ち時間の主な原因の一つは、ほとんど全ての最新LLMで採用されている逐次デコードアプローチである。本研究では、人間の思考と記述のプロセスに動機づけられ、まずLLMが答えの骨格を生成するように導き、次に並列API呼び出しまたはバッチ復号を行い、各骨格点の内容を並列に完成させるSoT(Skeleton-of-Thought)を提案する。SoTは12個のLLMでかなりのスピードアップを実現するだけでなく、いくつかの問題カテゴリーで解答の質を向上させる可能性がある。SoTは、推論効率のためのデータ中心最適化の最初の試みであり、言語で回答構造を明示的に計画することにより、高品質の回答を引き出す可能性を示している。
要約(オリジナル)
This work aims at decreasing the end-to-end generation latency of large language models (LLMs). One of the major causes of the high generation latency is the sequential decoding approach adopted by almost all state-of-the-art LLMs. In this work, motivated by the thinking and writing process of humans, we propose Skeleton-of-Thought (SoT), which first guides LLMs to generate the skeleton of the answer, and then conducts parallel API calls or batched decoding to complete the contents of each skeleton point in parallel. Not only does SoT provide considerable speed-ups across 12 LLMs, but it can also potentially improve the answer quality on several question categories. SoT is an initial attempt at data-centric optimization for inference efficiency, and showcases the potential of eliciting high-quality answers by explicitly planning the answer structure in language.
arxiv情報
著者 | Xuefei Ning,Zinan Lin,Zixuan Zhou,Zifu Wang,Huazhong Yang,Yu Wang |
発行日 | 2024-03-02 02:45:33+00:00 |
arxivサイト | arxiv_id(pdf) |