要約
この技術レポートでは、当社の最新の主力大規模言語モデル (LLM) である Yi-Lightning を紹介します。
チャットボット アリーナ全体で 6 位にランクされるという並外れたパフォーマンスを達成しており、特に中国語、数学、コーディング、ハード プロンプトなどの特殊なカテゴリで優れた結果 (2 位から 4 位) を獲得しています。
Yi-Lightning は、強化された Mixture-of-Experts (MoE) アーキテクチャを活用しており、最適化された KV キャッシュ技術と組み合わせた高度なエキスパート セグメンテーションおよびルーティング メカニズムを備えています。
当社の開発プロセスには、包括的な事前トレーニング、教師あり微調整 (SFT)、ヒューマン フィードバックからの強化学習 (RLHF) が含まれており、多段階トレーニング、合成データ構築、報酬モデリングのための意図的な戦略を考案します。
さらに、トレーニング前、トレーニング後、サービス提供段階にわたる安全性の問題に対処するための 4 つのコンポーネントのフレームワークである RAISE (Responsible AI Safety Engine) を実装しています。
これらすべてのイノベーションは、スケーラブルなスーパーコンピューティング インフラストラクチャを活用して、高性能標準を維持しながら、トレーニング、導入、推論のコストを大幅に削減します。
公開された学術ベンチマークでのさらなる評価により、Yi-Lightning はトップレベルの LLM に対して競争力のあるパフォーマンスを実証する一方、従来の静的なベンチマーク結果と現実世界の動的な人間の好みの間には顕著な差異があることが観察されました。
この観察は、実用的なアプリケーションのためのよりインテリジェントで強力な AI システムの開発を導く上で、従来のベンチマークの有用性の重要な再評価を促します。
Yi-Lightning は、https://platform.lingyiwanwu.com の開発者プラットフォームを通じて利用できるようになりました。
要約(オリジナル)
This technical report presents Yi-Lightning, our latest flagship large language model (LLM). It achieves exceptional performance, ranking 6th overall on Chatbot Arena, with particularly strong results (2nd to 4th place) in specialized categories including Chinese, Math, Coding, and Hard Prompts. Yi-Lightning leverages an enhanced Mixture-of-Experts (MoE) architecture, featuring advanced expert segmentation and routing mechanisms coupled with optimized KV-caching techniques. Our development process encompasses comprehensive pre-training, supervised fine-tuning (SFT), and reinforcement learning from human feedback (RLHF), where we devise deliberate strategies for multi-stage training, synthetic data construction, and reward modeling. Furthermore, we implement RAISE (Responsible AI Safety Engine), a four-component framework to address safety issues across pre-training, post-training, and serving phases. Empowered by our scalable super-computing infrastructure, all these innovations substantially reduce training, deployment and inference costs while maintaining high-performance standards. With further evaluations on public academic benchmarks, Yi-Lightning demonstrates competitive performance against top-tier LLMs, while we observe a notable disparity between traditional, static benchmark results and real-world, dynamic human preferences. This observation prompts a critical reassessment of conventional benchmarks’ utility in guiding the development of more intelligent and powerful AI systems for practical applications. Yi-Lightning is now available through our developer platform at https://platform.lingyiwanwu.com.
arxiv情報
著者 | Alan Wake,Bei Chen,C. X. Lv,Chao Li,Chengen Huang,Chenglin Cai,Chujie Zheng,Daniel Cooper,Fan Zhou,Feng Hu,Ge Zhang,Guoyin Wang,Heng Ji,Howard Qiu,Jiangcheng Zhu,Jun Tian,Katherine Su,Lihuan Zhang,Liying Li,Ming Song,Mou Li,Peng Liu,Qicheng Hu,Shawn Wang,Shijun Zhou,Shiming Yang,Shiyong Li,Tianhang Zhu,Wen Xie,Wenhao Huang,Xiang He,Xiaobo Chen,Xiaohui Hu,Xiaoyi Ren,Xinyao Niu,Yanpeng Li,Yongke Zhao,Yongzhen Luo,Yuchi Xu,Yuxuan Sha,Zhaodong Yan,Zhiyuan Liu,Zirui Zhang,Zonghong Dai |
発行日 | 2025-01-22 15:09:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google