要約
自己教師の適応(SSA)は、医療ドメインへの基礎モデルの移転を改善しますが、計算上は法外にあります。
LORAなどのパラメーター効率的な微調整方法は、監視された適応のために調査されていますが、SSAに対するそれらの有効性は不明のままです。
この作業では、計算コストを削減し、適応パフォーマンスを改善することを目的として、パラメーター効率の高い微調整技術をSSAに適用するフレームワークである効率的な自己監視適応(ESSA)を紹介します。
テストされた方法の中で、注意投影層の適応(APLA)は、新しい最先端のフルパラメーターSSAを一貫して上回り、多様な医療タスク全体で監視した微調整を設定し、GPUメモリを最大40.1%削減し、25.2%のトレーニングスループットを増加させます。
要約(オリジナル)
Self-supervised adaptation (SSA) improves foundation model transfer to medical domains but is computationally prohibitive. Although parameter efficient fine-tuning methods such as LoRA have been explored for supervised adaptation, their effectiveness for SSA remains unknown. In this work, we introduce efficient self-supervised adaptation (ESSA), a framework that applies parameter-efficient fine-tuning techniques to SSA with the aim of reducing computational cost and improving adaptation performance. Among the methods tested, Attention Projection Layer Adaptation (APLA) sets a new state-of-the-art, consistently surpassing full-parameter SSA and supervised fine-tuning across diverse medical tasks, while reducing GPU memory by up to 40.1% and increasing training throughput by 25.2%, all while maintaining inference efficiency.
arxiv情報
著者 | Moein Sorkhei,Emir Konuk,Jingyu Guo,Christos Matsoukas,Kevin Smith |
発行日 | 2025-03-24 16:48:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google