要約
生成アーキテクチャと大規模な言語モデルの進歩のおかげで、データサイエンティストは、マシンラーニング操作のパイプラインをコーディングして、構造化されていないデータの大規模なコレクションを処理できるようになりました。
最近の進歩により、宣言的なAIフレームワーク(Palimpzest、Lotus、Docetlなど)が最適化され、ますます複雑なパイプラインを構築することができましたが、これらのシステムは専門のプログラマーのみがアクセスできることがよくあります。
このデモンストレーションでは、ユーザーが自然言語だけで洗練されたAIパイプラインを作成および実行できるようにすることで、このギャップを橋渡しするPalimpzestへのチャットベースのインターフェイスであるPalimpchatを提示します。
Reactベースの推論エージェントであるArchytas、およびPalimpzestのリレーショナルおよびLLMベースのオペレーターのスイートを統合することにより、Palimpchatは、チャットインターフェイスが宣言的なAIフレームワークを非専門家が真にアクセスできるようにする方法の実用的なイラストを提供します。
デモシステムはオンラインで公開されています。
Sigmod’25では、参加者は、科学的な発見、法的発見、不動産検索の3つの現実世界のシナリオを探索するか、Palimpchatを独自のデータセットに適用できます。
この論文では、Palimpzest OptimizerにサポートされているPalimpchatが、生物医学データの抽出や分析などの複雑なAIワークフローをどのように簡素化するかに焦点を当てています。
要約(オリジナル)
Thanks to the advances in generative architectures and large language models, data scientists can now code pipelines of machine-learning operations to process large collections of unstructured data. Recent progress has seen the rise of declarative AI frameworks (e.g., Palimpzest, Lotus, and DocETL) to build optimized and increasingly complex pipelines, but these systems often remain accessible only to expert programmers. In this demonstration, we present PalimpChat, a chat-based interface to Palimpzest that bridges this gap by letting users create and run sophisticated AI pipelines through natural language alone. By integrating Archytas, a ReAct-based reasoning agent, and Palimpzest’s suite of relational and LLM-based operators, PalimpChat provides a practical illustration of how a chat interface can make declarative AI frameworks truly accessible to non-experts. Our demo system is publicly available online. At SIGMOD’25, participants can explore three real-world scenarios–scientific discovery, legal discovery, and real estate search–or apply PalimpChat to their own datasets. In this paper, we focus on how PalimpChat, supported by the Palimpzest optimizer, simplifies complex AI workflows such as extracting and analyzing biomedical data.
arxiv情報
著者 | Chunwei Liu,Gerardo Vitagliano,Brandon Rose,Matt Prinz,David Andrew Samson,Michael Cafarella |
発行日 | 2025-02-05 17:06:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google