Task Arithmetic Through The Lens Of One-Shot Federated Learning

要約

タスク演算は、追加の微調整や元のトレーニング データへのアクセスを必要とせずに、重み空間での単純な演算を通じて複数のモデルの機能を単一のモデルに組み合わせることができるモデル結合手法です。
ただし、タスク算術の成功を決定する要因は依然として不明です。
この論文では、マルチタスク学習のためのタスク算術を、ワンショットのフェデレーテッド ラーニング問題として枠組み化して検討します。
タスク演算が、FedAvg (FedAvg) と呼ばれる、Federated Learning で一般的に使用されるアルゴリズムと数学的に同等であることを示します。
FedAvg の十分に確立された理論的結果を活用することで、タスク演算のパフォーマンスに影響を与える 2 つの重要な要素、つまりデータの異質性とトレーニングの異質性を特定します。
これらの課題を軽減するために、Federated Learning のいくつかのアルゴリズムを採用して、タスク演算の効率を向上させています。
私たちの実験は、これらのアルゴリズムを適用すると、元のタスク演算アプローチと比較して、マージされたモデルのパフォーマンスが大幅に向上することが多いことを示しています。
この研究は、タスク演算とフェデレーテッド ラーニングの橋渡しを行い、タスク演算に関する新しい理論的観点と、モデルをマージするための実践的な方法論の改善を提供します。

要約(オリジナル)

Task Arithmetic is a model merging technique that enables the combination of multiple models’ capabilities into a single model through simple arithmetic in the weight space, without the need for additional fine-tuning or access to the original training data. However, the factors that determine the success of Task Arithmetic remain unclear. In this paper, we examine Task Arithmetic for multi-task learning by framing it as a one-shot Federated Learning problem. We demonstrate that Task Arithmetic is mathematically equivalent to the commonly used algorithm in Federated Learning, called Federated Averaging (FedAvg). By leveraging well-established theoretical results from FedAvg, we identify two key factors that impact the performance of Task Arithmetic: data heterogeneity and training heterogeneity. To mitigate these challenges, we adapt several algorithms from Federated Learning to improve the effectiveness of Task Arithmetic. Our experiments demonstrate that applying these algorithms can often significantly boost performance of the merged model compared to the original Task Arithmetic approach. This work bridges Task Arithmetic and Federated Learning, offering new theoretical perspectives on Task Arithmetic and improved practical methodologies for model merging.

arxiv情報

著者 Zhixu Tao,Ian Mason,Sanjeev Kulkarni,Xavier Boix
発行日 2024-11-27 18:53:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク