Consecutive Model Editing with Batch alongside HooK Layers

要約

一般的な再トレーニング パラダイムは許容できないほど時間とリソースを消費するため、研究者はモデルの動作を直接編集するための効果的で連続的なバッチ対応の方法を模索するためにモデル編集に目を向けています。
これらすべての実際的な期待にもかかわらず、既存のモデル編集方法ではそれらすべてを実現できません。
さらに、このような連続サポート型モデル編集アプローチのメモリ需要は法外な傾向にあり、時間の経過とともに徐々に増加する外部メモリが必要になることがよくあります。
これらの課題に対処するために、私たちは連続的かつバッチ対応のモデル編集方法である COMEBA-HK を提案します。
COMEBA-HK は、更新された重みを持つ複数のフック レイヤを保存するのに少量のメモリしか必要としないため、メモリに優しいです。
実験結果は、単一ラウンドおよび連続バッチ編集シナリオの両方で、他のバッチサポートモデル編集方法よりもこの方法が優れていることを示しています。
COMEBA-HK の広範な分析は、1) 連続ステップの数と 2) 編集インスタンスの数にわたってメソッドの安定性を検証するために実施されました。

要約(オリジナル)

As the typical retraining paradigm is unacceptably time- and resource-consuming, researchers are turning to model editing in order to seek an effective, consecutive, and batch-supportive way to edit the model behavior directly. Despite all these practical expectations, existing model editing methods fail to realize all of them. Furthermore, the memory demands for such succession-supportive model editing approaches tend to be prohibitive, frequently necessitating an external memory that grows incrementally over time. To cope with these challenges, we propose COMEBA-HK, a model editing method that is both consecutive and batch-supportive. COMEBA-HK is memory-friendly as it only needs a small amount of it to store several hook layers with updated weights. Experimental results demonstrate the superiority of our method over other batch-supportive model editing methods under both single-round and consecutive batch editing scenarios. Extensive analyses of COMEBA-HK have been conducted to verify the stability of our method over 1) the number of consecutive steps and 2) the number of editing instance.

arxiv情報

著者 Shuaiyi Li,Yang Deng,Deng Cai,Hongyuan Lu,Liang Chen,Wai Lam
発行日 2024-03-08 14:07:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク