要約
カルバック・ライブラー発散は、大規模言語モデル(LLM)を圧縮するために知識蒸留(KD)で広く使用されている。本研究では、逆カルバック・ライブラー発散(RKL)がモード探索的であり、平均探索的な順カルバック・ライブラー発散(FKL)よりも望ましいという先行する主張に反して、LLMのKDではモード探索的性質も平均探索的性質も現れないことを実証的かつ理論的に示す。その代わりに、RKLとFKLは同じ最適化目的を共有し、どちらも十分なエポック数の後に収束することがわかった。しかし、実用上の制約から、LLMがこのような膨大なエポック数にわたって訓練されることはほとんどない。一方、RKLは分布の末尾部分に着目するのに対し、FKLは先頭部分に着目することがわかった。その結果、我々は、FKLとRKLを組み合わせるために適応的に重みを割り当てる、シンプルかつ効果的な適応カルバック・ライバー(AKL)ダイバージェンス法を提案する。メトリックベースの評価とGPT-4ベースの評価により、提案するAKLが様々なタスクにおいてベースラインを上回り、生成される応答の多様性と品質を改善することを示す。
要約(オリジナル)
Kullback-Leiber divergence has been widely used in Knowledge Distillation (KD) to compress Large Language Models (LLMs). Contrary to prior assertions that reverse Kullback-Leibler (RKL) divergence is mode-seeking and thus preferable over the mean-seeking forward Kullback-Leibler (FKL) divergence, this study empirically and theoretically demonstrates that neither mode-seeking nor mean-seeking properties manifest in KD for LLMs. Instead, RKL and FKL are found to share the same optimization objective and both converge after a sufficient number of epochs. However, due to practical constraints, LLMs are seldom trained for such an extensive number of epochs. Meanwhile, we further find that RKL focuses on the tail part of the distributions, while FKL focuses on the head part at the beginning epochs. Consequently, we propose a simple yet effective Adaptive Kullback-Leiber (AKL) divergence method, which adaptively allocates weights to combine FKL and RKL. Metric-based and GPT-4-based evaluations demonstrate that the proposed AKL outperforms the baselines across various tasks and improves the diversity and quality of generated responses.
arxiv情報
| 著者 | Taiqiang Wu,Chaofan Tao,Jiahao Wang,Zhe Zhao,Ngai Wong |
| 発行日 | 2024-04-03 11:40:17+00:00 |
| arxivサイト | arxiv_id(pdf) |