要約
多くの場合、デモンストレーションの例を伴うタスクに対する合理的で一般的に正確な応答を生成することは、モデルのパラメーター空間を更新することなく、大規模な言語モデル(LLM)の顕著なコンテキスト学習(ICL)機能を強調しています。
ドキュメントレベルの概念からの推論に焦点を当てている継続的な調査を持っているにもかかわらず、コンテキストで明確に定義された機能または関係を学習する際の行動には慎重な調査が必要です。
この記事では、プロンプトの誘導的に増加する複雑さの概念を導入することにより、部分的に順序付けられた関係でICLのパフォーマンスを紹介します。
ほとんどの場合、選択したメトリックの飽和性能は、ICLがいくらかの利点を提供する一方で、十分な実証例が存在する場合でもプロンプトの複雑さを高めるにつれてその有効性が制約されたままであることを示しています。
行動は私たちの経験的発見から明らかであり、その暗黙的な最適化プロセスの観点でさらに理論的に正当化されています。
コードは\ href {https://anonymous.4open.science/r/iclonpartiallyorderset} {ここで}可能です。
要約(オリジナル)
Generating rational and generally accurate responses to tasks, often accompanied by example demonstrations, highlights Large Language Model’s (LLM’s) remarkable In-Context Learning (ICL) capabilities without requiring updates to the model’s parameter space. Despite having an ongoing exploration focused on the inference from a document-level concept, its behavior in learning well-defined functions or relations in context needs a careful investigation. In this article, we present the performance of ICL on partially ordered relation by introducing the notion of inductively increasing complexity in prompts. In most cases, the saturated performance of the chosen metric indicates that while ICL offers some benefits, its effectiveness remains constrained as we increase the complexity in the prompts even in presence of sufficient demonstrative examples. The behavior is evident from our empirical findings and has further been theoretically justified in term of its implicit optimization process. The code is available \href{https://anonymous.4open.science/r/ICLonPartiallyOrderSet}{here}.
arxiv情報
著者 | Debanjan Dutta,Faizanuddin Ansari,Swagatam Das |
発行日 | 2025-06-16 15:35:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google