要約
大規模な言語モデル(LLM)によってサポートされている知識集約型の会話は、さまざまな面で人々を支援できる最も人気のある役立つアプリケーションの1つになりました。
現在の知識集約型アプリケーションの多くは、検索された生成(RAG)技術に集中しています。
多くのオープンソースのRAGフレームワークは、RAGベースのアプリケーションの開発を促進しますが、トピックと形式、会話コンテキスト管理、低遅延の応答時間の要件の不均一なデータによって複雑になる実用的なシナリオの処理に不足していることがよくあります。
このテクニカルレポートは、これらの課題に対処するために、構成可能な知識統合マルチエージェントシステムであるKimasを提示します。
Kimasは、多様な知識ソースを1)コンテキスト管理とクエリの書き換えメカニズムと検索の精度とマルチターン会話コヒーレンシーを改善するための柔軟で構成可能なシステムを備えています。
、および4)最適化された並列化可能なマルチエージェントパイプライン実行。
私たちの仕事は、実際の設定でLLMの展開を進めるためのスケーラブルなフレームワークを提供します。
Kimasが開発者がさまざまなスケールと強調で知識集約型アプリケーションを構築するのに役立つ方法を示すために、信頼できるパフォーマンスで実際に実行されている3つのアプリケーションにシステムを構成する方法を示します。
要約(オリジナル)
Knowledge-intensive conversations supported by large language models (LLMs) have become one of the most popular and helpful applications that can assist people in different aspects. Many current knowledge-intensive applications are centered on retrieval-augmented generation (RAG) techniques. While many open-source RAG frameworks facilitate the development of RAG-based applications, they often fall short in handling practical scenarios complicated by heterogeneous data in topics and formats, conversational context management, and the requirement of low-latency response times. This technical report presents a configurable knowledge integrated multi-agent system, KIMAs, to address these challenges. KIMAs features a flexible and configurable system for integrating diverse knowledge sources with 1) context management and query rewrite mechanisms to improve retrieval accuracy and multi-turn conversational coherency, 2) efficient knowledge routing and retrieval, 3) simple but effective filter and reference generation mechanisms, and 4) optimized parallelizable multi-agent pipeline execution. Our work provides a scalable framework for advancing the deployment of LLMs in real-world settings. To show how KIMAs can help developers build knowledge-intensive applications with different scales and emphases, we demonstrate how we configure the system to three applications already running in practice with reliable performance.
arxiv情報
著者 | Zitao Li,Fei Wei,Yuexiang Xie,Dawei Gao,Weirui Kuang,Zhijian Ma,Bingchen Qian,Yaliang Li,Bolin Ding |
発行日 | 2025-02-13 18:51:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google