EXAONE 3.0 7.8B Instruction Tuned Language Model

要約

LG AI Research が開発した大規模言語モデル (LLM) ファミリの最初のオープン モデルである EXAONE 3.0 命令調整言語モデルを紹介します。
さまざまなモデルサイズの中で、オープンリサーチとイノベーションを促進するために、78B 命令チューニングモデルを一般公開します。
EXAONE 3.0 は、公開および社内の幅広いベンチマークにわたる広範な評価を通じて、同様のサイズの他の最先端のオープン モデルと比較して、命令追従機能を備えた非常に競争力のある現実世界のパフォーマンスを実証しています。
私たちの比較分析により、EXAONE 3.0 は一般的なタスクと複雑な推論にわたって説得力のあるパフォーマンスを達成しながら、特に韓国語で優れていることがわかりました。
私たちは、EXAONE が現実世界での強力な有効性とバイリンガルの熟練度により、Expert AI の進歩に貢献し続けることを期待しています。
当社の EXAONE 3.0 命令調整モデルは、https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct で入手できます。

要約(オリジナル)

We introduce EXAONE 3.0 instruction-tuned language model, the first open model in the family of Large Language Models (LLMs) developed by LG AI Research. Among different model sizes, we publicly release the 7.8B instruction-tuned model to promote open research and innovations. Through extensive evaluations across a wide range of public and in-house benchmarks, EXAONE 3.0 demonstrates highly competitive real-world performance with instruction-following capability against other state-of-the-art open models of similar size. Our comparative analysis shows that EXAONE 3.0 excels particularly in Korean, while achieving compelling performance across general tasks and complex reasoning. With its strong real-world effectiveness and bilingual proficiency, we hope that EXAONE keeps contributing to advancements in Expert AI. Our EXAONE 3.0 instruction-tuned model is available at https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct

arxiv情報

著者 LG AI Research,:,Soyoung An,Kyunghoon Bae,Eunbi Choi,Stanley Jungkyu Choi,Yemuk Choi,Seokhee Hong,Yeonjung Hong,Junwon Hwang,Hyojin Jeon,Gerrard Jeongwon Jo,Hyunjik Jo,Jiyeon Jung,Yountae Jung,Euisoon Kim,Hyosang Kim,Joonkee Kim,Seonghwan Kim,Soyeon Kim,Sunkyoung Kim,Yireun Kim,Youchul Kim,Edward Hwayoung Lee,Haeju Lee,Honglak Lee,Jinsik Lee,Kyungmin Lee,Moontae Lee,Seungjun Lee,Woohyung Lim,Sangha Park,Sooyoun Park,Yongmin Park,Boseong Seo,Sihoon Yang,Heuiyeen Yeen,Kyungjae Yoo,Hyeongu Yun
発行日 2024-08-13 10:09:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク