要約
「思考連鎖(CoT)」推論を活用して大規模言語モデル(LLM)から迅速かつ正確な応答を引き出すことは、急速に研究の関心を集めている。
ここでの注目すべき課題は、最適なプロンプトをどのように設計または選択するかということです。
プロンプト選択のプロセスは試行錯誤に依存しており、LLM から生成された対応する新しい応答に基づいて、ユーザーによる入力プロンプトの継続的な調整と組み合わせが含まれます。
さらに、LLM がユーザー インタラクションから学習した数学的問題解決能力をどのように利用して物語的文章の問題に対処するかを調査するための最小限の研究が行われています。
解釈可能性を向上させ、マルチドメイン CoT プロンプト選択シナリオの下で一般性とパーソナライゼーションの間のバランス原則を探求するために、Federated Logic ルール学習アプローチ (FedLogic) を提案します。
フェデレーテッド LLM のコンテキストにおけるマルチドメイン CoT プロンプト選択ジレンマの理論的形式化と対話型エミュレーションを導入します。
我々は同時確率モデリングの問題をバイレベルプログラムとして投影し、CoT プロンプト選択の複雑さをルールジェネレーターとして LLM 関数を使用したファジースコアベースのルール選択に例えることができます。
FedLogic は、変分期待値最大化 (V-EM) を通じてこの問題を解決します。
さらに、この確率的モデリング フレームワーク内に 2 つの KL ダイバージェンス制約を組み込んで、広範な検索スペースの管理と CoT のクロスドメイン パーソナライゼーションの達成の複雑さを克服します。
私たちの知る限り、FedLogic は、LLM 向けの解釈可能で原則に基づいたフェデレーテッド マルチドメイン CoT プロンプト選択アプローチとしては初めてのものです。
要約(オリジナル)
Leveraging “chain-of-thought (CoT)” reasoning to elicit rapid and precise responses from large language models (LLMs) is rapidly attracting research interest. A notable challenge here is how to design or select optimal prompts. The process of prompt selection relies on trial and error, involving continuous adjustments and combinations of input prompts by users based on the corresponding new responses generated from LLMs. Furthermore, minimal research has been conducted to explore how LLMs employ the mathematical problem-solving capabilities learned from user interactions to address issues in narrative writing. To improve interpretability and explore the balance principle between generality and personalization under a multi-domain CoT prompt selection scenario, we propose the Federated Logic rule learning approach (FedLogic). We introduce a theoretical formalization and interactive emulation of the multi-domain CoT prompt selection dilemma in the context of federated LLMs. We cast the problem of joint probability modeling as a bilevel program, where the CoT prompt selection intricacy can be likened to a fuzzy score-based rule selection with the LLMs function as rule generators. FedLogic solves this problem through variational expectation maximization (V-EM). In addition, we incorporate two KL-divergence constraints within this probabilistic modeling framework to surmount the intricacies of managing extensive search spaces and accomplishing cross-domain personalization of CoTs. To the best of our knowledge, FedLogic is the first interpretable and principled federated multi-domain CoT prompt selection approach for LLMs.
arxiv情報
著者 | Pengwei Xing,Songtao Lu,Han Yu |
発行日 | 2023-08-29 14:20:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google