要約
モデルのマージは、タスク固有の重みを組み合わせて、マルチターゲットドメイン適応で優れたパフォーマンスを達成するための強力な手法として浮上しています。
ただし、量子化モデルなどの実際のシナリオに適用すると、新しい課題が生じます。
実際のシナリオでは、量子化はターゲット固有のデータにしばしば適用されますが、このプロセスは目的の領域を制限し、離散化効果を導入し、モデルを非常に非自明のマージにします。
この研究では、エラー障壁のレンズを介したモデルのマージに及ぼす量子化の影響を分析します。
これらの洞察を活用して、トレーニング後の新しい量子化、HDRQ(ヘシアンおよび遠い正規化量子化)を提案します。
私たちのアプローチにより、量子化プロセスがソースの事前トレーニングモデルからの最小限の偏差を保証し、滑らかなモデルのマージを促進するために損失面を平坦化します。
私たちの知る限り、これはこの課題に関する最初の研究であり、広範な実験はその有効性を確認します。
要約(オリジナル)
Model merging has emerged as a powerful technique for combining task-specific weights, achieving superior performance in multi-target domain adaptation. However, when applied to practical scenarios, such as quantized models, new challenges arise. In practical scenarios, quantization is often applied to target-specific data, but this process restricts the domain of interest and introduces discretization effects, making model merging highly non-trivial. In this study, we analyze the impact of quantization on model merging through the lens of error barriers. Leveraging these insights, we propose a novel post-training quantization, HDRQ – Hessian and distant regularizing quantization – that is designed to consider model merging for multi-target domain adaptation. Our approach ensures that the quantization process incurs minimal deviation from the source pre-trained model while flattening the loss surface to facilitate smooth model merging. To our knowledge, this is the first study on this challenge, and extensive experiments confirm its effectiveness.
arxiv情報
| 著者 | Juncheol Shin,Minsang Seok,Seonggon Kim,Eunhyeok Park |
| 発行日 | 2025-05-29 17:00:56+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google