Generative Models as a Complex Systems Science: How can we make sense of large language model behavior?

要約

望ましくない動作を回避しながら、事前トレーニングされたモデルから望ましい動作を引き出すことで、NLP が再定義され、コンピューターとの対話方法が再構築されています。
かつては科学工学の分野であったもの (構成要素を次々に積み重ねていくもの) は、おそらくすでに複雑なシステム科学となっており、以前は想像もしていなかったユースケースをサポートするために創発的な動作が模索されています。
タスクのパフォーマンスを測定するベンチマークの数は増え続けていますが、そもそも言語モデルがどのような動作を示してこれらのタスクを完了できるのかについての説明が不足しています。
私たちは、言語モデルの動作をタスク間のパフォーマンスを説明するカテゴリーに分解し、メカニズムの説明を導き、将来性のある分析研究を支援するための体系的な取り組みを主張します。

要約(オリジナル)

Coaxing out desired behavior from pretrained models, while avoiding undesirable ones, has redefined NLP and is reshaping how we interact with computers. What was once a scientific engineering discipline-in which building blocks are stacked one on top of the other-is arguably already a complex systems science, in which emergent behaviors are sought out to support previously unimagined use cases. Despite the ever increasing number of benchmarks that measure task performance, we lack explanations of what behaviors language models exhibit that allow them to complete these tasks in the first place. We argue for a systematic effort to decompose language model behavior into categories that explain cross-task performance, to guide mechanistic explanations and help future-proof analytic research.

arxiv情報

著者 Ari Holtzman,Peter West,Luke Zettlemoyer
発行日 2023-07-31 22:58:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク