要約
最近の大規模な言語モデルベースのアプリケーションで使用されているプロンプトは、しばしば固定されており、長く長く、重要な計算オーバーヘッドにつながります。
この課題に対処するために、共同トレーニングアプローチを採用する軽量な方法である生成促進迅速化(GENPI)を提案します。
Genpiは、モデルの動作をプロンプトの入力で複製するだけでなく、モデルの動作がそれに応じて変更される理由の理由とともに、プロンプトのコンテンツを生成します。
私たちのアプローチは、さまざまなエージェントベースのアプリケーションシナリオにわたって複雑なプロンプトを効果的に内在化することを実証します。
専用の環境との相互作用なしで効果的なトレーニングのために、エージェントと環境の役割を交換することにより、会話のデータセットを自律的に収集するデータ統合手法を導入します。
この方法は、対応するトレーニングデータセットなしで定義されたプロンプトのみが利用可能なシナリオで特に役立ちます。
複雑なプロンプトを内面化することにより、生成プロンプトの内在化により、明示的なプロンプトを必要とせずに高性能と効率的な推論が可能になります。
要約(オリジナル)
Prompts used in recent large language model based applications are often fixed and lengthy, leading to significant computational overhead. To address this challenge, we propose Generative Prompt Internalization (GenPI), a lightweight method that employs a joint training approach. GenPI not only replicates the behavior of models with prompt inputs but also generates the content of the prompt along with reasons for why the model’s behavior should change accordingly. We demonstrate that our approach effectively internalizes complex prompts across various agent-based application scenarios. For effective training without interactions with the dedicated environments, we introduce a data synthesis technique that autonomously collects conversational datasets by swapping the roles of the agent and environment. This method is especially useful in scenarios where only a predefined prompt is available without a corresponding training dataset. By internalizing complex prompts, Generative Prompt Internalization enables high performance and efficient inference without the need for explicit prompts.
arxiv情報
著者 | Haebin Shin,Lei Ji,Yeyun Gong,Sungdong Kim,Eunbi Choi,Minjoon Seo |
発行日 | 2025-02-13 14:55:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google