Editing Knowledge Representation of Language Lodel via Rephrased Prefix Prompts

要約

神経言語モデル (LM) は、テキストで記述された世界のさまざまな側面に関する事実の知識を保存するために、膨大なコーパスで広範囲にトレーニングされています。
現在のテクノロジーは通常、ナレッジ編集方法または特定のプロンプトを使用して LM 出力を変更します。
しかし、既存のナレッジ編集方法はコストが高く非効率的であり、適切なテキストを作成するのに苦労しています。
さらに、プロンプト エンジニアリングは不透明であり、適切なプロンプトを見つけるには多大な労力が必要です。
これらの問題に対処するために、PSPEM (Prefix Soft Prompt Editing Method) と呼ばれる新しい手法を導入しました。この手法は、一度のトレーニングで一生使用できます。
ナレッジ編集方法における非効率性と一般化性の問題を解決し、最適なソフト プロンプトを自動的に探索することでプロンプト エンジニアリングの不透明さを克服します。
具体的には、PSPEM は、プロンプト エンコーダとエンコード コンバータを利用してプロンプト内の重要な情報を調整し、プロンプト アライメント技術を使用してモデル生成をガイドし、テキストの一貫性と意図した構造およびコンテンツへの準拠を確保することで、効率と精度の最適なバランスを維持します。
ナレッジ編集と属性挿入を通じて PSPEM の有効性を検証しました。
COUNTERFACT データセットでは、PSPEM はほぼ 100\% の編集精度を達成し、最高レベルの流暢性を実証しました。
さらに、PSPEM と元のプロンプトの類似点と、それらがモデルの内部に与える影響を分析しました。
結果は、PSPEM が元のプロンプトの代替として機能し、モデルの効果的な編集をサポートできることを示しています。

要約(オリジナル)

Neural language models (LMs) have been extensively trained on vast corpora to store factual knowledge about various aspects of the world described in texts. Current technologies typically employ knowledge editing methods or specific prompts to modify LM outputs. However, existing knowledge editing methods are costly and inefficient, struggling to produce appropriate text. Additionally, prompt engineering is opaque and requires significant effort to find suitable prompts. To address these issues, we introduce a new method called PSPEM (Prefix Soft Prompt Editing Method), that can be used for a lifetime with just one training. It resolves the inefficiencies and generalizability issues in knowledge editing methods and overcomes the opacity of prompt engineering by automatically seeking optimal soft prompts. Specifically, PSPEM utilizes a prompt encoder and an encoding converter to refine key information in prompts and uses prompt alignment techniques to guide model generation, ensuring text consistency and adherence to the intended structure and content, thereby maintaining an optimal balance between efficiency and accuracy. We have validated the effectiveness of PSPEM through knowledge editing and attribute inserting. On the COUNTERFACT dataset, PSPEM achieved nearly 100\% editing accuracy and demonstrated the highest level of fluency. We further analyzed the similarities between PSPEM and original prompts and their impact on the model’s internals. The results indicate that PSPEM can serve as an alternative to original prompts, supporting the model in effective editing.

arxiv情報

著者 Yuchen Cai,Ding Cao,Rongxi Guo,Yaqin Wen,Guiquan Liu,Enhong Chen
発行日 2024-03-21 13:15:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク