ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction

要約

電子商取引プラットフォームでは、ファセット製品検索や属性ベースの製品比較などの機能を提供するには、属性と値のペアの形式で構造化された製品データが必要です。
ただし、ベンダーは構造化されていない製品説明を提供することが多く、これらのテキストから属性と値のペアを抽出する必要があります。
BERT ベースの抽出方法では、タスク固有の大量のトレーニング データが必要であり、目に見えない属性値に苦労します。
このペーパーでは、より効率的で堅牢なトレーニング データの代替手段として大規模言語モデル (LLM) の使用について検討します。
テキストと JSON ベースのターゲット スキーマ表現を比較して、ゼロショット シナリオと少数ショット シナリオ向けのプロンプト テンプレートを提案します。
私たちの実験では、詳細な属性の説明とデモンストレーションを使用して、GPT-4 が 85% という最高の平均 F1 スコアを達成することを示しています。
Llama-3-70B もほぼ同等のパフォーマンスを発揮し、競争力のあるオープンソースの代替品を提供します。
GPT-4 は、F1 スコアで最高の PLM ベースラインを 5% 上回っています。
GPT-3.5 を微調整すると、パフォーマンスが GPT-4 のレベルまで向上しますが、目に見えない属性値に一般化するモデルの能力が低下します。

要約(オリジナル)

E-commerce platforms require structured product data in the form of attribute-value pairs to offer features such as faceted product search or attribute-based product comparison. However, vendors often provide unstructured product descriptions, necessitating the extraction of attribute-value pairs from these texts. BERT-based extraction methods require large amounts of task-specific training data and struggle with unseen attribute values. This paper explores using large language models (LLMs) as a more training-data efficient and robust alternative. We propose prompt templates for zero-shot and few-shot scenarios, comparing textual and JSON-based target schema representations. Our experiments show that GPT-4 achieves the highest average F1-score of 85% using detailed attribute descriptions and demonstrations. Llama-3-70B performs nearly as well, offering a competitive open-source alternative. GPT-4 surpasses the best PLM baseline by 5% in F1-score. Fine-tuning GPT-3.5 increases the performance to the level of GPT-4 but reduces the model’s ability to generalize to unseen attribute values.

arxiv情報

著者 Alexander Brinkmann,Roee Shraga,Christian Bizer
発行日 2024-09-18 12:28:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク