要約
文脈のいくつかの例からタスクを学ぶ言語モデルの能力は、大きな関心を生み出しました。
ここでは、このタイプの監督された少数の学習を、メタ学習中のコンテキスト学習のはるかに広いスペクトル内で位置づける視点を提供します。
確かに、コンテキストがその後の予測の損失を非文脈的に減少させるシーケンスの分布は、コンテキスト内学習の一種を誘発するものとして解釈できることを提案します。
この視点は、言語モデルが示す一連のコンテキスト内能力を統一するのに役立つことを提案します – 命令やロールプレイからのタスクに適応したり、時系列の外挿。
この視点は、言語依存関係の低レベルの処理におけるコンテキスト内学習の潜在的な根にも光を当てています(例えば、コアファレンスまたは並列構造)。
最後に、この視点をとると、一般化の重要性が強調されています。これは、いくつかの次元に沿って研究することができます。斬新なことを学ぶ能力だけでなく、さまざまなプレゼンテーションから学習し、学んだことを適用する柔軟性も強調しています。
メタ学習および目標条件付けされたエージェント、および学習と適応に関するその他の視点における過去の文献とのより広範なつながりについて説明します。
コンテキスト内学習に関する研究は、コンテキスト内の能力と一般化の種類のこの広範なスペクトルを考慮すべきであることを示唆しています。
要約(オリジナル)
The ability of language models to learn a task from a few examples in context has generated substantial interest. Here, we provide a perspective that situates this type of supervised few-shot learning within a much broader spectrum of meta-learned in-context learning. Indeed, we suggest that any distribution of sequences in which context non-trivially decreases loss on subsequent predictions can be interpreted as eliciting a kind of in-context learning. We suggest that this perspective helps to unify the broad set of in-context abilities that language models exhibit — such as adapting to tasks from instructions or role play, or extrapolating time series. This perspective also sheds light on potential roots of in-context learning in lower-level processing of linguistic dependencies (e.g. coreference or parallel structures). Finally, taking this perspective highlights the importance of generalization, which we suggest can be studied along several dimensions: not only the ability to learn something novel, but also flexibility in learning from different presentations, and in applying what is learned. We discuss broader connections to past literature in meta-learning and goal-conditioned agents, and other perspectives on learning and adaptation. We close by suggesting that research on in-context learning should consider this broader spectrum of in-context capabilities and types of generalization.
arxiv情報
著者 | Andrew Kyle Lampinen,Stephanie C. Y. Chan,Aaditya K. Singh,Murray Shanahan |
発行日 | 2025-06-05 17:58:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google