要約
現在、大規模言語モデル (LLM) の学習パラダイムは、コンテキスト内学習 (ICL) または完全な微調整のいずれかに分類される傾向があります。
これらのそれぞれには、利用可能なデータ、モデル サイズ、コンピューティング コスト、使いやすさ、最終品質に基づく独自のトレードオフがあり、どちらのソリューションも全体的に良好なパフォーマンスを発揮するわけではありません。
この記事では、まず ICL と微調整パラダイムについて、それらの自然なつながりを強調しながら説明します。
これらのつながりに基づいて、私たちは、これらのパラダイムの最良の部分を融合した FIAT と呼ばれる新しい学習パラダイムを提案します。これにより、非常に大きなモデルを使用した即時設計の指示と思考連鎖推論が可能になり、同時に同様の方法を使用してパラメータ更新を実行できます。
パラメータ効率の高いチューニングを備えた適度なサイズの LLM。
私たちはさまざまな多言語タスクに対する FIAT の有効性を評価し、100 ~ 10,000 のトレーニング例の範囲で FIAT が ICL および微調整の両方よりも優れたパフォーマンスを発揮することを観察しました。
私たちは、FIAT が、学習パラダイムの間で難しい選択をする必要なく、LLM の可能性を最大限に活用する実用的な方法を提供することを願っています。
要約(オリジナル)
Learning paradigms for large language models (LLMs) currently tend to fall within either in-context learning (ICL) or full fine-tuning. Each of these comes with their own trade-offs based on available data, model size, compute cost, ease-of-use, and final quality with neither solution performing well across-the-board. In this article, we first describe ICL and fine-tuning paradigms in a way that highlights their natural connections. Based on these connections, we propose a new learning paradigm called FIAT that fuses the best of these paradigms together, enabling prompt-engineered instructions and chain-of-thought reasoning with the very largest models while also using similar methods to perform parameter updates on a modestly-sized LLM with parameter-efficient tuning. We evaluate FIAT’s effectiveness on a variety of multilingual tasks and observe that FIAT performs better than both ICL and fine-tuning at scales ranging from 100-10,000 training examples. We hope that FIAT provides a practical way of harnessing the full potential of LLMs without needing to make a hard choice between learning paradigms.
arxiv情報
著者 | Xinyi Wang,John Wieting,Jonathan H. Clark |
発行日 | 2023-09-12 14:34:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google