要約
【タイトル】
Low-code LLM:LLM上でのビジュアルプログラミング
【要約】
– LLMを効果的に使用することは困難であり、時間がかかるし、制御不能なプロンプトエンジニアリングプロセスが必要となることがある。
– この論文は、新しいヒューマン-LLMインタラクションフレームワーク、Low-code LLMを紹介する。
– Low-code LLMは、6種類のシンプルな低コードビジュアルプログラミングインタラクションを組み合わせることで、より管理可能で安定したレスポンスを実現する。
– グラフィカルユーザーインターフェースを介したビジュアルインタラクションにより、ユーザーはトリビアルなプロントの書き込みなしに、アイデアをワークフローに組み込むことができる。
– 提案されたLow-code LLMフレームワークには、複雑なタスクのための構造化された計画ワークフローを設計するPlanning LLMと、ユーザーが確認したワークフローに従ってレスポンスを生成するExecuting LLMが含まれている。
– 低コード LLMの3つの利点は、制御可能な結果の生成、ユーザーフレンドリーなHumman-LLMインタラクション、そして幅広い応用シナリオである。
– 4つの典型的なアプリケーションを使用してその利点を実証する。
– このアプローチを導入することで、人間とLLMの間のギャップを埋め、複雑なタスクのためのLLMの効果的かつ効率的な利用を可能にすることを目的としています。我々のシステムはすぐにLowCodeLLMで公開されます。
要約(オリジナル)
Effectively utilizing LLMs for complex tasks is challenging, often involving a time-consuming and uncontrollable prompt engineering process. This paper introduces a novel human-LLM interaction framework, Low-code LLM. It incorporates six types of simple low-code visual programming interactions, all supported by clicking, dragging, or text editing, to achieve more controllable and stable responses. Through visual interaction with a graphical user interface, users can incorporate their ideas into the workflow without writing trivial prompts. The proposed Low-code LLM framework consists of a Planning LLM that designs a structured planning workflow for complex tasks, which can be correspondingly edited and confirmed by users through low-code visual programming operations, and an Executing LLM that generates responses following the user-confirmed workflow. We highlight three advantages of the low-code LLM: controllable generation results, user-friendly human-LLM interaction, and broadly applicable scenarios. We demonstrate its benefits using four typical applications. By introducing this approach, we aim to bridge the gap between humans and LLMs, enabling more effective and efficient utilization of LLMs for complex tasks. Our system will be soon publicly available at LowCodeLLM.
arxiv情報
著者 | Yuzhe Cai,Shaoguang Mao,Wenshan Wu,Zehua Wang,Yaobo Liang,Tao Ge,Chenfei Wu,Wang You,Ting Song,Yan Xia,Jonathan Tien,Nan Duan |
発行日 | 2023-04-20 06:42:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI