ChatGPT’s One-year Anniversary: Are Open-Source Large Language Models Catching up?

要約

2022 年後半にリリースされた ChatGPT は、研究と商業の両方で AI の全体像に劇的な変化をもたらしました。
教師あり微調整と人間のフィードバックからの強化学習による大規模言語モデル (LLM) の命令調整を通じて、モデルが人間の質問に答え、広範なタスクの指示に従うことができることを示しました。
この成功を受けて、LLM への関心が高まり、LLM に焦点を当てた多くの新興企業を含め、学術界や業界全体で頻繁に新しい LLM が繁栄しています。
クローズドソースの LLM (OpenAI の GPT、Anthropic の Claude など) は通常、オープンソースの LLM よりも優れたパフォーマンスを発揮しますが、後者の進歩は急速であり、特定のタスクでは同等かそれ以上を達成すると主張されています。
これは研究だけでなくビジネスにも重大な影響を及ぼします。
この作業では、ChatGPT の 1 周年にあたり、オープンソース LLM が ChatGPT と同等かそれ以上であると主張するすべてのタスクを調査し、この成功の徹底的な概要を提供します。

要約(オリジナル)

Upon its release in late 2022, ChatGPT has brought a seismic shift in the entire landscape of AI, both in research and commerce. Through instruction-tuning a large language model (LLM) with supervised fine-tuning and reinforcement learning from human feedback, it showed that a model could answer human questions and follow instructions on a broad panel of tasks. Following this success, interests in LLMs have intensified, with new LLMs flourishing at frequent interval across academia and industry, including many start-ups focused on LLMs. While closed-source LLMs (e.g., OpenAI’s GPT, Anthropic’s Claude) generally outperform their open-source counterparts, the progress on the latter has been rapid with claims of achieving parity or even better on certain tasks. This has crucial implications not only on research but also on business. In this work, on the first anniversary of ChatGPT, we provide an exhaustive overview of this success, surveying all tasks where an open-source LLM has claimed to be on par or better than ChatGPT.

arxiv情報

著者 Hailin Chen,Fangkai Jiao,Xingxuan Li,Chengwei Qin,Mathieu Ravaut,Ruochen Zhao,Caiming Xiong,Shafiq Joty
発行日 2023-11-29 16:00:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク