The representation landscape of few-shot learning and fine-tuning in large language models

要約

インコンテキスト学習 (ICL) と教師あり微調整 (SFT) は、特定のタスクにおける最新の大規模言語モデル (LLM) のパフォーマンスを向上させるための 2 つの一般的な戦略です。
性質は異なりますが、これらの戦略は多くの場合、同等のパフォーマンスの向上につながります。
ただし、それらが LLM 内で同様の表現を引き起こすかどうかについてはほとんど知られていません。
我々は、2 つのケースにおける隠れた表現の確率状況を分析することで、この問題にアプローチします。
より具体的には、LLM が同じ質問応答タスクをどのように解決するかを比較し、ICL と SFT が非常に異なる内部構造を作成し、どちらの場合もネットワークの中央で急激な遷移が発生することがわかりました。
ネットワークの前半では、ICL は意味論的な内容に従って階層的に編成された解釈可能な表現を形成します。
対照的に、SFT で得られる確率ランドスケープはより曖昧で、意味的に混合されています。
モデルの後半では、微調整された表現により、回答のアイデンティティをより適切にエンコードする確率モードが開発されますが、ICL 表現のランドスケープは、あまり定義されていないピークによって特徴付けられます。
私たちのアプローチは、異なる条件下で同じタスクを解決するために LLM 内で開発された多様な計算戦略を明らかにし、言語モデルから情報を抽出する最適な方法の設計に向けて一歩前進することを可能にします。

要約(オリジナル)

In-context learning (ICL) and supervised fine-tuning (SFT) are two common strategies for improving the performance of modern large language models (LLMs) on specific tasks. Despite their different natures, these strategies often lead to comparable performance gains. However, little is known about whether they induce similar representations inside LLMs. We approach this problem by analyzing the probability landscape of their hidden representations in the two cases. More specifically, we compare how LLMs solve the same question-answering task, finding that ICL and SFT create very different internal structures, in both cases undergoing a sharp transition in the middle of the network. In the first half of the network, ICL shapes interpretable representations hierarchically organized according to their semantic content. In contrast, the probability landscape obtained with SFT is fuzzier and semantically mixed. In the second half of the model, the fine-tuned representations develop probability modes that better encode the identity of answers, while the landscape of ICL representations is characterized by less defined peaks. Our approach reveals the diverse computational strategies developed inside LLMs to solve the same task across different conditions, allowing us to make a step towards designing optimal methods to extract information from language models.

arxiv情報

著者 Diego Doimo,Alessandro Serra,Alessio Ansuini,Alberto Cazzaniga
発行日 2024-09-05 16:15:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク