LLaMA-E: Empowering E-commerce Authoring with Multi-Aspect Instruction Following

要約

電子商取引オーサリングには、製品の販売を促進するために、魅力的で豊富な、ターゲットを絞ったプロモーション コンテンツを作成することが含まれます。
大規模言語モデル (LLM) の出現により、革新的なパラダイムが導入され、このシナリオ内のさまざまなオーサリング タスクに対処するための統合ソリューションが提供されます。
しかし、常識的な知識を備えた一般的なコーパスで訓練された主流の LLM は、電子商取引製品や顧客に固有の複雑でパーソナライズされた機能を適合させるには限界があることを明らかにしています。
さらに、GPT-3.5 のような LLM はリモート アクセスを必要とするため、送信中の大量の顧客プライバシー データの保護に関する懸念が生じます。
この論文では、多様な電子商取引オーサリング タスクに焦点を当てた、統合されカスタマイズされた命令に従う言語モデルである LLaMA-E を提案します。
具体的には、ドメインの専門家は、広告の生成、クエリ強化された製品タイトルの書き換え、製品の分類、購入意図の推測、および一般的な Q&A のタスクからシード命令セットを作成します。
これらのタスクにより、顧客、販売者、プラットフォームの典型的なサービス側面をカバーする機能をインターリーブすることにより、モデルが正確な電子商取引オーサリングの知識を包括的に理解できるようになります。
GPT-3.5 は教師モデルとして導入されており、シード命令を拡張してさまざまなスケールの LLaMA-E モデルのトレーニング セットを形成します。
実験結果は、提案されたLLaMA-Eモデルが定量的および定性的評価において最先端の結果を達成し、ゼロショットシーンでも利点を示すことを示しています。
私たちの知る限り、この調査は特定の電子商取引オーサリング シナリオに LLM を提供する最初の調査です。

要約(オリジナル)

E-commerce authoring involves creating attractive, abundant, and targeted promotional content to drive product sales. The emergence of large language models (LLMs) introduces an innovative paradigm, offering a unified solution to address various authoring tasks within this scenario. However, mainstream LLMs trained on general corpora with common sense knowledge reveal limitations in fitting complex and personalized features unique to e-commerce products and customers. Furthermore, LLMs like GPT-3.5 necessitate remote accessibility, raising concerns about safeguarding voluminous customer privacy data during transmission. This paper proposes the LLaMA-E, the unified and customized instruction-following language models focusing on diverse e-commerce authoring tasks. Specifically, the domain experts create the seed instruction set from the tasks of ads generation, query-enhanced product title rewriting, product classification, purchase intent speculation, and general Q&A. These tasks enable the models to comprehensively understand precise e-commerce authoring knowledge by interleaving features covering typical service aspects of customers, sellers, and platforms. The GPT-3.5 is introduced as a teacher model, which expands the seed instructions to form a training set for the LLaMA-E models with various scales. The experimental results show that the proposed LLaMA-E models achieve state-of-the-art results in quantitative and qualitative evaluations, also exhibiting the advantage in zero-shot scenes. To the best of our knowledge, this study is the first to serve the LLMs to specific e-commerce authoring scenarios.

arxiv情報

著者 Kaize Shi,Xueyao Sun,Dingxian Wang,Yinlin Fu,Guandong Xu,Qing Li
発行日 2023-08-09 12:26:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR パーマリンク