Low-code LLM: Visual Programming over LLMs

要約

タイトル:Low-code LLM: Visual Programming over LLMs
要約:
– LLMを効果的に使用することは困難であり、しばしば時間がかかり、制御できないプロンプトエンジニアリングプロセスが必要となる。
– この論文は、新しい人間-LLM相互作用フレームワーク、「Low-code LLM」を紹介する。
– Low-code LLMは、クリック、ドラッグ、またはテキスト編集によってサポートされる6種類の簡単な低コードビジュアルプログラミング相互作用を組み込んでおり、コントロール可能で安定した応答を実現している。
– ユーザーは、グラフィカルユーザーインターフェースとの視覚的な相互作用を通じて、自分のアイデアをトリビアルなプロンプトを書かずにワークフローに組み込むことができる。
– Low-code LLMフレームワークは、複雑なタスクのための構造化された計画ワークフローを設計するPlanning LLMと、ユーザーが承認したワークフローに従って応答を生成するExecuting LLMから構成される。
– 低コードLLMの3つの利点を強調する: コントロール可能な生成結果、ユーザーフレンドリーな人間-LLM相互作用、そして広く適用可能なシナリオ。
– 4つの典型的なアプリケーションを使用して利点を示している。
– このアプローチを導入することにより、人間とLLMの間のギャップを埋め、複雑なタスクの効果的で効率的な利用を可能にすることを目的としている。私たちのシステムは、LowCodeLLMで近日中に公開される予定です。

要約(オリジナル)

Effectively utilizing LLMs for complex tasks is challenging, often involving a time-consuming and uncontrollable prompt engineering process. This paper introduces a novel human-LLM interaction framework, Low-code LLM. It incorporates six types of simple low-code visual programming interactions, all supported by clicking, dragging, or text editing, to achieve more controllable and stable responses. Through visual interaction with a graphical user interface, users can incorporate their ideas into the workflow without writing trivial prompts. The proposed Low-code LLM framework consists of a Planning LLM that designs a structured planning workflow for complex tasks, which can be correspondingly edited and confirmed by users through low-code visual programming operations, and an Executing LLM that generates responses following the user-confirmed workflow. We highlight three advantages of the low-code LLM: controllable generation results, user-friendly human-LLM interaction, and broadly applicable scenarios. We demonstrate its benefits using four typical applications. By introducing this approach, we aim to bridge the gap between humans and LLMs, enabling more effective and efficient utilization of LLMs for complex tasks. Our system will be soon publicly available at LowCodeLLM.

arxiv情報

著者 Yuzhe Cai,Shaoguang Mao,Wenshan Wu,Zehua Wang,Yaobo Liang,Tao Ge,Chenfei Wu,Wang You,Ting Song,Yan Xia,Jonathan Tien,Nan Duan
発行日 2023-04-17 09:27:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.HC パーマリンク