要約
製品コピーライティングの目標は、テキスト説明を通じて製品の特徴を強調することで、潜在的な購入者の興味を引くことです。
電子商取引プラットフォームが幅広いサービスを提供するにつれて、自動生成される説明のスタイルを動的に調整することが不可欠になってきています。
コピーライティング生成の一般的なアプローチは、指定された製品属性のみに依存することが多く、その結果、単調で繰り返しの多いコンテンツになる可能性があります。
この問題に取り組むために、私たちは顧客レビューに基づいてコピーライティングを生成することを提案します。顧客レビューは製品に関する実際の直接の経験を提供し、単なる製品の属性よりも豊富な情報源を提供するからです。
私たちは、強化学習で強化されたシーケンスツーシーケンスのフレームワークを開発し、魅力的で信頼性が高く、情報が豊富なコピーライティングを作成しました。
私たちのフレームワークは、魅力と忠実さの両方の点で、LLaMA-2-chat-7B や GPT-3.5 を含む既存のすべてのベースラインおよびゼロショット大規模言語モデルよりも優れています。
さらに、この研究では、側面ベースの要約収集と議論の魅力の評価に LLM を使用することを特徴としています。
実験により、マーケティング ドメイン コーパス構築に LLM を使用することの有効性が実証されています。
コードとデータセットは、https://github.com/YuXiangLin1234/Copywriting-Generation で公開されています。
要約(オリジナル)
The goal of product copywriting is to capture the interest of potential buyers by emphasizing the features of products through text descriptions. As e-commerce platforms offer a wide range of services, it’s becoming essential to dynamically adjust the styles of these auto-generated descriptions. Typical approaches to copywriting generation often rely solely on specified product attributes, which may result in dull and repetitive content. To tackle this issue, we propose to generate copywriting based on customer reviews, as they provide firsthand practical experiences with products, offering a richer source of information than just product attributes. We have developed a sequence-to-sequence framework, enhanced with reinforcement learning, to produce copywriting that is attractive, authentic, and rich in information. Our framework outperforms all existing baseline and zero-shot large language models, including LLaMA-2-chat-7B and GPT-3.5, in terms of both attractiveness and faithfulness. Furthermore, this work features the use of LLMs for aspect-based summaries collection and argument allure assessment. Experiments demonstrate the effectiveness of using LLMs for marketing domain corpus construction. The code and the dataset is publicly available at: https://github.com/YuXiangLin1234/Copywriting-Generation.
arxiv情報
著者 | Yu-Xiang Lin,Wei-Yun Ma |
発行日 | 2024-05-14 08:05:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google