Editing Models with Task Arithmetic

要約

事前トレーニング済みモデルの動作を変更する (たとえば、ダウンストリーム タスクでのパフォーマンスを改善する、事前トレーニング中に学習したバイアスを軽減する) ことは、機械学習システムを開発する際の一般的な方法です。
この作業では、\textit{タスク ベクトル} を中心とした、ニューラル ネットワークの動作を操作するための新しいパラダイムを提案します。
タスク ベクトルは、事前トレーニング済みモデルの重み空間で方向を指定し、その方向への移動がタスクのパフォーマンスを向上させるようにします。
タスクを微調整した後、同じモデルの重みから事前トレーニング済みのモデルの重みを差し引いて、タスク ベクトルを構築します。
これらのタスクベクトルは、否定や加算などの算術演算によって変更および結合できることを示し、結果として得られるモデルの動作はそれに応じて操作されます。
タスク ベクトルを無効にすると、ターゲット タスクのパフォーマンスが低下しますが、制御タスクでのモデルの動作はほとんど変化しません。
さらに、タスク ベクトルを一緒に追加すると、一度に複数のタスクのパフォーマンスを向上させることができます。
最後に、タスクが「A は B に、C は D に」という形の類推関係によってリンクされている場合、3 つのタスクからのタスク ベクトルを組み合わせることで、4 番目のタスクからのデータがない場合でも、4 番目のパフォーマンスを向上させることができます。
トレーニングに使用されます。
全体として、いくつかのモデル、モダリティ、およびタスクを使用した私たちの実験は、タスク演算がモデルを編集するためのシンプルで効率的かつ効果的な方法であることを示しています。

要約(オリジナル)

Changing how pre-trained models behave — e.g., improving their performance on a downstream task or mitigating biases learned during pre-training — is a common practice when developing machine learning systems. In this work, we propose a new paradigm for steering the behavior of neural networks, centered around \textit{task vectors}. A task vector specifies a direction in the weight space of a pre-trained model, such that movement in that direction improves performance on the task. We build task vectors by subtracting the weights of a pre-trained model from the weights of the same model after fine-tuning on a task. We show that these task vectors can be modified and combined together through arithmetic operations such as negation and addition, and the behavior of the resulting model is steered accordingly. Negating a task vector decreases performance on the target task, with little change in model behavior on control tasks. Moreover, adding task vectors together can improve performance on multiple tasks at once. Finally, when tasks are linked by an analogy relationship of the form “A is to B as C is to D’, combining task vectors from three of the tasks can improve performance on the fourth, even when no data from the fourth task is used for training. Overall, our experiments with several models, modalities and tasks show that task arithmetic is a simple, efficient and effective way of editing models.

arxiv情報

著者 Gabriel Ilharco,Marco Tulio Ribeiro,Mitchell Wortsman,Suchin Gururangan,Ludwig Schmidt,Hannaneh Hajishirzi,Ali Farhadi
発行日 2023-03-29 16:52:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV, cs.LG パーマリンク