Encapsulating Knowledge in One Prompt

要約

このパラダイムは、元のモデルを変更したり、トレーニング データへのアクセスを必要とせずに、さまざまなモデルからの知識を単独のプロンプトにカプセル化するため、より現実的なシナリオで効率的かつ便利な知識の伝達を実現できます。
実用性の観点から見ると、このパラダイムは、データにアクセスできないコンテキストにおけるビジュアル プロンプトの有効性を初めて証明するだけでなく、従来のデータフリー ナレッジ転送が直面​​する低モデルの再利用性とストレージ リソースの大量消費の問題も解決します。
ソースモデルを変更することなく、複数のモデルの並列知識伝達を実現できます。
さまざまなデータセットとモデルにわたる広範な実験により、提案されている KiOP 知識伝達パラダイムの有効性が実証されています。
実際のトレーニング データにアクセスせず、ストレージ容量に厳しい制約がある場合でも、クロスモデル バックボーン セットアップを処理したり、複数 (2 つ以上) のモデルを使用した並列知識伝達処理リクエストを処理したりするときに、多大な成果を生み出すこともできます。

要約(オリジナル)

This paradigm encapsulates knowledge from various models into a solitary prompt without altering the original models or requiring access to the training data, which enables us to achieve efficient and convenient knowledge transfer in more realistic scenarios. From a practicality standpoint, this paradigm not only for the first time proves the effectiveness of Visual Prompt in data inaccessible contexts, but also solves the problems of low model reusability and high storage resource consumption faced by traditional Data-Free Knowledge Transfer, which means that we can realize the parallel knowledge transfer of multiple models without modifying any source model. Extensive experiments across various datasets and models demonstrate the efficacy of the proposed KiOP knowledge transfer paradigm. Without access to real training data and with rigorous storage capacity constraints, it is also capable of yielding considerable outcomes when dealing with cross-model backbone setups and handling parallel knowledge transfer processing requests with multiple (more than 2) models.

arxiv情報

著者 Qi Li,Runpeng Yu,Xinchao Wang
発行日 2024-07-16 16:35:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク