Reliable Gradient-free and Likelihood-free Prompt Tuning

要約

タイトル:Gradient-freeおよびLikelihood-free Prompt Tuningの信頼性
要約:

– 大規模なトレーニング済み言語モデル(PLM)は、プライバシーや商用上の制約のため、ブラックボックスAPIとして提供されることがよくある。
– この論文は、APIアクセスのみでPLMを適応させるための技術を開発することで、ダウンストリームタスクに対してPLMを微調整することが困難である課題に対処する。
– ソフトプロンプトを調整する手法に関する最近の研究をベースにして、勾配の計算が不要なプロンプトを調整する方法を開発する。
– 更に、勾配だけでなく、入力埋め込み以外のPLMの内部表現へのアクセスも必要としない拡張を開発する。
– さらに、単一のプロンプトを学習する代わりに、プロンプトの分布を学習する方法を開発することで、予測不確実性を定量化することができる。これは、PLMへのAPIアクセスしかない場合にプロンプトの不確実性を考慮する最初の作業である。
– 最後に、実験により、提案された方法を慎重に検証し、PLMへの完全なアクセスがある勾配ベースの手法と競合し、時には改善することが判明した。

要約(オリジナル)

Due to privacy or commercial constraints, large pre-trained language models (PLMs) are often offered as black-box APIs. Fine-tuning such models to downstream tasks is challenging because one can neither access the model’s internal representations nor propagate gradients through it. This paper addresses these challenges by developing techniques for adapting PLMs with only API access. Building on recent work on soft prompt tuning, we develop methods to tune the soft prompts without requiring gradient computation. Further, we develop extensions that in addition to not requiring gradients also do not need to access any internal representation of the PLM beyond the input embeddings. Moreover, instead of learning a single prompt, our methods learn a distribution over prompts allowing us to quantify predictive uncertainty. Ours is the first work to consider uncertainty in prompts when only having API access to the PLM. Finally, through extensive experiments, we carefully vet the proposed methods and find them competitive with (and sometimes even improving on) gradient-based approaches with full access to the PLM.

arxiv情報

著者 Maohao Shen,Soumya Ghosh,Prasanna Sattigeri,Subhro Das,Yuheng Bu,Gregory Wornell
発行日 2023-04-30 22:33:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.LG パーマリンク