RouteNator: A Router-Based Multi-Modal Architecture for Generating Synthetic Training Data for Function Calling LLMs

要約

このペーパーでは、実際のユーザーインタラクションデータが利用できない場合、機能タスクを呼び出すための大規模な言語モデル(LLMS)を微調整します。
デジタルコンテンツ作成ツールでは、ユーザーがAPI呼び出しにマッピングする必要がある自然言語クエリを通じてニーズを表現するため、実際のタスク固有のデータがないため、トレーニングのためのプライバシーの制約が合成データ生成を必要とします。
合成データ生成への既存のアプローチは、多様性と複雑さが不足しており、実際のデータ分布を複製できず、LLMの微調整後の最適ではないパフォーマンスにつながります。
コンテンツメタデータや構造化された知識グラフなどのドメインリソースを活用する新しいルーターベースのアーキテクチャを提示し、テキストからテキストへのテキスト対テキストへの言語モデルとともに、高品質の合成トレーニングデータを生成します。
当社のアーキテクチャの柔軟なルーティングメカニズムにより、観測された現実世界の分布に一致する合成データ生成が可能になり、従来のアプローチの基本的な制限に対処できます。
実際のユーザークエリの包括的なセットの評価は、関数分類精度とAPIパラメーター選択の両方の大幅な改善を示しています。
合成データで微調整されたモデルは、従来のアプローチよりも一貫してパフォーマンスを発揮し、関数呼び出しタスクの新しいベンチマークを確立します。

要約(オリジナル)

This paper addresses fine-tuning Large Language Models (LLMs) for function calling tasks when real user interaction data is unavailable. In digital content creation tools, where users express their needs through natural language queries that must be mapped to API calls, the lack of real-world task-specific data and privacy constraints for training on it necessitate synthetic data generation. Existing approaches to synthetic data generation fall short in diversity and complexity, failing to replicate real-world data distributions and leading to suboptimal performance after LLM fine-tuning. We present a novel router-based architecture that leverages domain resources like content metadata and structured knowledge graphs, along with text-to-text and vision-to-text language models to generate high-quality synthetic training data. Our architecture’s flexible routing mechanism enables synthetic data generation that matches observed real-world distributions, addressing a fundamental limitation of traditional approaches. Evaluation on a comprehensive set of real user queries demonstrates significant improvements in both function classification accuracy and API parameter selection. Models fine-tuned with our synthetic data consistently outperform traditional approaches, establishing new benchmarks for function calling tasks.

arxiv情報

著者 Vibha Belavadi,Tushar Vatsa,Dewang Sultania,Suhas Suresha,Ishita Verma,Cheng Chen,Tracy Holloway King,Michael Friedrich
発行日 2025-05-15 16:53:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク