BBox-Adapter: Lightweight Adapting for Black-Box Large Language Models

要約

GPT-4 や Gemini などの最先端の大規模言語モデル (LLM) を特定のタスクに適応させるのは困難です。
パラメータ、埋め込み、さらには出力確率が不透明であるため、既存の微調整適応方法は適用できません。
その結果、これらのブラックボックス LLM の適応は API サービスを通じてのみ可能となり、透明性、プライバシー、コストに関する懸念が生じます。
これらの課題に対処するために、ブラックボックス LLM 用の新しい軽量アダプターである BBox-Adapter を紹介します。
BBox-Adapter は、ターゲット データをポジティブとして扱い、ソース データをネガティブとして扱うことにより、ターゲット ドメイン データとソース ドメイン データを区別します。
ランキングベースのノイズ対比推定 (NCE) 損失を採用して、ソース ドメインのデータの可能性を低下させながら、ターゲット ドメインのデータの可能性を高めます。
さらに、オンライン適応メカニズムを特徴とし、グラウンドトゥルース、人間、または AI フィードバックからのリアルタイムのポジティブ データ サンプリングと、以前の適応からのネガティブ データを組み合わせます。
広範な実験により、BBox-Adapter の有効性とコスト効率が実証されています。
さまざまなタスクとドメインにわたってモデルのパフォーマンスが最大 6.77% 向上し、トレーニングと推論のコストがそれぞれ 31.30 倍と 1.84 倍削減されます。

要約(オリジナル)

Adapting state-of-the-art Large Language Models (LLMs) like GPT-4 and Gemini for specific tasks is challenging. Due to the opacity in their parameters, embeddings, and even output probabilities, existing fine-tuning adaptation methods are inapplicable. Consequently, adapting these black-box LLMs is only possible through their API services, raising concerns about transparency, privacy, and cost. To address these challenges, we introduce BBox-Adapter, a novel lightweight adapter for black-box LLMs. BBox-Adapter distinguishes target and source domain data by treating target data as positive and source data as negative. It employs a ranking-based Noise Contrastive Estimation (NCE) loss to promote the likelihood of target domain data while penalizing that of the source domain. Furthermore, it features an online adaptation mechanism, which incorporates real-time positive data sampling from ground-truth, human, or AI feedback, coupled with negative data from previous adaptations. Extensive experiments demonstrate BBox-Adapter’s effectiveness and cost efficiency. It improves model performance by up to 6.77% across diverse tasks and domains, while reducing training and inference costs by 31.30x and 1.84x, respectively.

arxiv情報

著者 Haotian Sun,Yuchen Zhuang,Wei Wei,Chao Zhang,Bo Dai
発行日 2024-05-28 17:04:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク