I Know What I Don’t Know: Improving Model Cascades Through Confidence Tuning

要約

大規模な機械学習モデルは、幅広いタスクにわたって強力なパフォーマンスを提供しますが、重要な計算およびリソースの制約があります。
これらの課題を緩和するために、ローカルの小さなモデルは、多くの場合、より大きなモデルと一緒に展開され、複雑なタスクをオフロードするためのルーティングと延期メカニズムに依存します。
ただし、既存のアプローチは、これらのモデルの能力のバランスが不十分であり、多くの場合、不必要な延期または最適なリソースの使用をもたらします。
この作業では、カスケードセットアップで小型モデルを調整するためのGateKeeperと呼ばれる新しい損失関数を紹介します。
私たちのアプローチは、より大きなモデルに複雑なタスクを延期しながら、正しく実行できるタスクを自信を持って処理するための小さなモデルを微調整します。
さらに、モデルのパフォーマンスと延期精度の間のトレードオフを管理するためのメカニズムが組み込まれており、アーキテクチャの変更なしに、さまざまなタスクとドメインに広く適用されます。
エンコーダーのみ、デコーダーのみ、およびエンコーダデコーダーアーキテクチャでの方法を評価します。
画像分類、言語モデリング、ビジョン言語タスク全体の実験は、私たちのアプローチが延期パフォーマンスを大幅に改善することを示しています。

要約(オリジナル)

Large-scale machine learning models deliver strong performance across a wide range of tasks but come with significant computational and resource constraints. To mitigate these challenges, local smaller models are often deployed alongside larger models, relying on routing and deferral mechanisms to offload complex tasks. However, existing approaches inadequately balance the capabilities of these models, often resulting in unnecessary deferrals or sub-optimal resource usage. In this work we introduce a novel loss function called Gatekeeper for calibrating smaller models in cascade setups. Our approach fine-tunes the smaller model to confidently handle tasks it can perform correctly while deferring complex tasks to the larger model. Moreover, it incorporates a mechanism for managing the trade-off between model performance and deferral accuracy, and is broadly applicable across various tasks and domains without any architectural changes. We evaluate our method on encoder-only, decoder-only, and encoder-decoder architectures. Experiments across image classification, language modeling, and vision-language tasks show that our approach substantially improves deferral performance.

arxiv情報

著者 Stephan Rabanser,Nathalie Rauschmayr,Achin Kulshrestha,Petra Poklukar,Wittawat Jitkrittum,Sean Augenstein,Congchao Wang,Federico Tombari
発行日 2025-02-26 17:29:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク