要約
タイトル:Eコマース領域におけるスタイル化されたデータからテキスト生成のケーススタディー
要約:
– データからテキストを生成する既存の試みは、主に表や属性-値ペアなどの非言語的な入力データから一貫したテキストを生成することに焦点を当てていますが、異なるアプリケーションシナリオでは異なるスタイルのテキストが必要になる可能性があります。
– このため、スタイル化されたデータからテキスト生成という新しいタスクを定義し、与えられた非言語的データに基づいて特定のスタイルの一貫したテキストを生成することを目的としています。
– このタスクは3つの課題があるため、容易ではありません。すなわち、生成されたテキストの論理、非構造化されたスタイル参照、バイアスのあるトレーニングサンプルです。
– これらの課題に対処するために、私たちは新しいスタイル化されたデータからテキスト生成モデル「StyleD2T」を提案し、3つのコンポーネントで構成されています。それらは、ロジックプランニングによるデータの埋め込みの強化、マスクベースのスタイルの埋め込み、そして偏りのないスタイル化されたテキスト生成です。
– 実験結果は、ルービコンとモデルによる改善を示しています。
要約(オリジナル)
Existing data-to-text generation efforts mainly focus on generating a coherent text from non-linguistic input data, such as tables and attribute-value pairs, but overlook that different application scenarios may require texts of different styles. Inspired by this, we define a new task, namely stylized data-to-text generation, whose aim is to generate coherent text for the given non-linguistic data according to a specific style. This task is non-trivial, due to three challenges: the logic of the generated text, unstructured style reference, and biased training samples. To address these challenges, we propose a novel stylized data-to-text generation model, named StyleD2T, comprising three components: logic planning-enhanced data embedding, mask-based style embedding, and unbiased stylized text generation. In the first component, we introduce a graph-guided logic planner for attribute organization to ensure the logic of generated text. In the second component, we devise feature-level mask-based style embedding to extract the essential style signal from the given unstructured style reference. In the last one, pseudo triplet augmentation is utilized to achieve unbiased text generation, and a multi-condition based confidence assignment function is designed to ensure the quality of pseudo samples. Extensive experiments on a newly collected dataset from Taobao have been conducted, and the results show the superiority of our model over existing methods.
arxiv情報
著者 | Liqiang Jing,Xuemeng Song,Xuming Lin,Zhongzhou Zhao,Wei Zhou,Liqiang Nie |
発行日 | 2023-05-05 03:02:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI