Probing the Decision Boundaries of In-context Learning in Large Language Models

要約

インコンテキスト学習は、大規模言語モデル (LLM) の重要なパラダイムであり、明示的なパラメーターの更新を行わずに、いくつかのサンプルを使用してこれらのモデルをプロンプトするだけで、新しいタスクやドメインに一般化できるようになります。
LLM のコンテキスト内学習をモデルのスケール、事前トレーニング データ、その他の要因の関数として理解するために多くの試みが行われてきました。
この研究では、コンテキスト内バイナリ分類の決定境界のレンズからコンテキスト内学習を調査して理解するための新しいメカニズムを提案します。
決定境界は視覚化するのが簡単で、標準分類器の帰納的バイアスの定性的な動作に関する重要な情報を提供します。
驚いたことに、単純な二項分類タスクで現在の LLM によって学習された決定境界は、基礎となるタスクの線形分離性に関係なく、多くの場合不規則で滑らかではないことがわかりました。
この論文では、これらの決定境界に影響を与える要因を調査し、その一般化可能性を高める方法を探ります。
私たちは、LLM のトレーニング不要の微調整方法、モデル アーキテクチャの影響、データ効率の高い方法で意思決定境界を平滑化するためのアクティブ プロンプト手法の有効性など、さまざまなアプローチを評価します。
私たちの発見は、コンテキスト内学習のダイナミクスについてのより深い理解を提供し、コンテキスト内学習の堅牢性と一般化性を高めるための実践的な改善を提供します。

要約(オリジナル)

In-context learning is a key paradigm in large language models (LLMs) that enables them to generalize to new tasks and domains by simply prompting these models with a few exemplars without explicit parameter updates. Many attempts have been made to understand in-context learning in LLMs as a function of model scale, pretraining data, and other factors. In this work, we propose a new mechanism to probe and understand in-context learning from the lens of decision boundaries for in-context binary classification. Decision boundaries are straightforward to visualize and provide important information about the qualitative behavior of the inductive biases of standard classifiers. To our surprise, we find that the decision boundaries learned by current LLMs in simple binary classification tasks are often irregular and non-smooth, regardless of linear separability in the underlying task. This paper investigates the factors influencing these decision boundaries and explores methods to enhance their generalizability. We assess various approaches, including training-free and fine-tuning methods for LLMs, the impact of model architecture, and the effectiveness of active prompting techniques for smoothing decision boundaries in a data-efficient manner. Our findings provide a deeper understanding of in-context learning dynamics and offer practical improvements for enhancing robustness and generalizability of in-context learning.

arxiv情報

著者 Siyan Zhao,Tung Nguyen,Aditya Grover
発行日 2024-07-24 05:22:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク