Merge-Friendly Post-Training Quantization for Multi-Target Domain Adaptation

要約

モデルのマージは、タスク固有の重みを組み合わせて、マルチターゲットドメイン適応で優れたパフォーマンスを達成するための強力な手法として浮上しています。
ただし、量子化モデルなどの実際のシナリオに適用すると、新しい課題が生じます。
実際のシナリオでは、量子化はターゲット固有のデータにしばしば適用されますが、このプロセスは目的の領域を制限し、離散化効果を導入し、モデルを非常に非自明のマージにします。
この研究では、エラー障壁のレンズを介したモデルのマージに及ぼす量子化の影響を分析します。
これらの洞察を活用して、トレーニング後の新しい量子化、HDRQ(ヘシアンおよび遠い正規化量子化)を提案します。
私たちのアプローチにより、量子化プロセスがソースの事前トレーニングモデルからの最小限の偏差を保証し、滑らかなモデルのマージを促進するために損失面を平坦化します。
私たちの知る限り、これはこの課題に関する最初の研究であり、広範な実験はその有効性を確認します。

要約(オリジナル)

Model merging has emerged as a powerful technique for combining task-specific weights, achieving superior performance in multi-target domain adaptation. However, when applied to practical scenarios, such as quantized models, new challenges arise. In practical scenarios, quantization is often applied to target-specific data, but this process restricts the domain of interest and introduces discretization effects, making model merging highly non-trivial. In this study, we analyze the impact of quantization on model merging through the lens of error barriers. Leveraging these insights, we propose a novel post-training quantization, HDRQ – Hessian and distant regularizing quantization – that is designed to consider model merging for multi-target domain adaptation. Our approach ensures that the quantization process incurs minimal deviation from the source pre-trained model while flattening the loss surface to facilitate smooth model merging. To our knowledge, this is the first study on this challenge, and extensive experiments confirm its effectiveness.

arxiv情報

著者 Juncheol Shin,Minsang Seok,Seonggon Kim,Eunhyeok Park
発行日 2025-05-29 17:00:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク