Harnessing Chain-of-Thought Metadata for Task Routing and Adversarial Prompt Detection

要約

この作業では、タスクの難易度を決定し、生産コンテキストで大規模な言語モデル(LLMS)をサポートするために、思考数(NOFT)と呼ばれるメトリックを提案します。
思考の数に基づいてしきい値を設定することにより、このメトリックはプロンプトの難易度を識別し、より効果的なプロンプトルーティングをサポートできます。
17億、70億、および140億のパラメーターで、量子化された蒸留バージョンのDeepSeekの蒸留バージョンを介してMathinStructデータセットからプロンプトをルーティングすると、2%の減少が達成されます。
さらに、このメトリックを使用して、高効果の迅速な注入攻撃で使用される敵対的なプロンプトを検出できます。
思考の数は、敵対的な迅速な検出で95%の精度を達成する分類子に通知することができます。
使用されている実験広告データセットは、githubページ(https://github.com/rymarinelli/number_of_thoughts/tree/main)で入手できます。

要約(オリジナル)

In this work, we propose a metric called Number of Thoughts (NofT) to determine the difficulty of tasks pre-prompting and support Large Language Models (LLMs) in production contexts. By setting thresholds based on the number of thoughts, this metric can discern the difficulty of prompts and support more effective prompt routing. A 2% decrease in latency is achieved when routing prompts from the MathInstruct dataset through quantized, distilled versions of Deepseek with 1.7 billion, 7 billion, and 14 billion parameters. Moreover, this metric can be used to detect adversarial prompts used in prompt injection attacks with high efficacy. The Number of Thoughts can inform a classifier that achieves 95% accuracy in adversarial prompt detection. Our experiments ad datasets used are available on our GitHub page: https://github.com/rymarinelli/Number_Of_Thoughts/tree/main.

arxiv情報

著者 Ryan Marinelli,Josef Pichlmeier,Tamas Bisztray
発行日 2025-03-27 12:54:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.PF パーマリンク