要約
このペーパーでは、専門家でないマーケティング担当者が自然言語形式で与えられた要求だけでターゲット ユーザーを選択できる、ユーザー ターゲティングの新しい方法を検討します。
この問題の鍵は、自然言語を実用的な構造化論理言語、つまりマーケティング担当者の要求を構造的に理解する方法に変換する方法です。
大規模言語モデル (LLM) の優れた自然言語処理能力を考慮して、私たちは LLM を活用してこの問題を解決しようと試みています。
過去の研究では、LLM の推論能力は、思考連鎖 (CoT) のプロンプトによって効果的に強化できることが示されています。
しかし、既存の方法にはまだいくつかの制限があります: (1) 以前の方法では、単純な「ステップごとに考えてみましょう」の呪文を使用するか、プロンプトと質問の間の互換性を考慮せずにデモンストレーションで固定された例を提供するため、LLM は構造化言語などの一部の複雑な推論タスクでは効果がありません。
変換。
(2) 従来の手法は、クローズドソース モデルまたは過度に大規模なモデルで実装されることが多く、産業上の実用的なシナリオには適していません。
これらに基づいて、我々は、Analogical Reasoning based Prompting と Reasoning-Augmented Multi-Task Model Distillation の 2 つのモジュールで構成される ARALLM (すなわち、Analogical Reasoning Augmented Large Language Models) を提案します。
要約(オリジナル)
In this paper, we explore a new way for user targeting, where non-expert marketers could select their target users solely given demands in natural language form. The key to this issue is how to transform natural languages into practical structured logical languages, i.e., the structured understanding of marketer demands. Considering the impressive natural language processing ability of large language models (LLMs), we try to leverage LLMs to solve this issue. Past research indicates that the reasoning ability of LLMs can be effectively enhanced through chain-of-thought (CoT) prompting. But existing methods still have some limitations: (1) Previous methods either use simple ‘Let’s think step by step’ spells or provide fixed examples in demonstrations without considering compatibility between prompts and questions, making LLMs ineffective in some complex reasoning tasks such as structured language transformation. (2) Previous methods are often implemented in closed-source models or excessively large models, which is not suitable in industrial practical scenarios. Based on these, we propose ARALLM (i.e., Analogical Reasoning Augmented Large Language Models) consisting of two modules: Analogical Reasoning based Prompting and Reasoning-Augmented Multi-Task Model Distillation.
arxiv情報
著者 | Junjie Wang,Dan Yang,Binbin Hu,Yue Shen,Ziqi Liu,Wen Zhang,Jinjie Gu,Zhiqiang Zhang |
発行日 | 2024-01-09 02:25:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google