要約
大規模言語モデル (LLM) はさまざまなタスクを解決するのに優れていますが、展開後はすぐに古くなってしまう可能性があります。
最新のステータスを維持することは、現在の時代における差し迫った懸念事項です。
このペーパーでは、最初から再トレーニングすることなく、LLM を絶えず変化する世界の知識に合わせるための最近の進歩について包括的にレビューします。
研究成果を体系的に分類し、詳細な比較と議論を提供します。
また、既存の課題についても議論し、この分野の研究を促進するための将来の方向性を強調します。
論文リストは https://github.com/hyintell/awesome-refreshing-llms で公開しています。
要約(オリジナル)
Although large language models (LLMs) are impressive in solving various tasks, they can quickly be outdated after deployment. Maintaining their up-to-date status is a pressing concern in the current era. This paper provides a comprehensive review of recent advances in aligning LLMs with the ever-changing world knowledge without re-training from scratch. We categorize research works systemically and provide in-depth comparisons and discussion. We also discuss existing challenges and highlight future directions to facilitate research in this field. We release the paper list at https://github.com/hyintell/awesome-refreshing-llms
arxiv情報
著者 | Zihan Zhang,Meng Fang,Ling Chen,Mohammad-Reza Namazi-Rad,Jun Wang |
発行日 | 2023-10-11 09:46:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google