FolkScope: Intention Knowledge Graph Construction for E-commerce Commonsense Discovery

要約

電子商取引プラットフォームにおけるユーザーの意図を理解するには、常識的な知識が必要である。本論文では、商品購入に関する人間の心の構造を明らかにするための意図知識グラフ構築フレームワークであるFolkScopeを紹介する。常識的な知識は通常、不可解であり、明示的に表現されないため、情報抽出を行うことは困難である。そこで、大規模言語モデル(LLM)の生成能力と人間のループアノテーションを活用し、半自動的に知識グラフを構築する新しいアプローチを提案します。LLMは、まず、電子商取引に特化したプロンプトによって、買い物行動を説明する意図のアサーションを生成する。ここで、意図は、オープンな理由、または、IsA、MadeOf、UsedForなど、ConceptNetと一致する18のカテゴリーのうちの1つに分類される述語であってもよい。次に、すべての自動世代に人間の判断を入力するために、サンプリングされた意図の妥当性と典型性のラベルをトレーニングデータとして注釈する。最後に、アサーションを構造化するために、より凝縮された抽象的な知識を形成するためのパターンマイニングと概念化を提案する。広範な評価と研究により、我々の構築した知識グラフが電子商取引の知識をうまくモデル化でき、多くの応用が可能であることが実証された。

要約(オリジナル)

Understanding users’ intentions in e-commerce platforms requires commonsense knowledge. In this paper, we present FolkScope, an intention knowledge graph construction framework to reveal the structure of humans’ minds about purchasing items. As commonsense knowledge is usually ineffable and not expressed explicitly, it is challenging to perform information extraction. Thus, we propose a new approach that leverages the generation power of large language models~(LLMs) and human-in-the-loop annotation to semi-automatically construct the knowledge graph. LLMs first generate intention assertions via e-commerce-specific prompts to explain shopping behaviors, where the intention can be an open reason or a predicate falling into one of 18 categories aligning with ConceptNet, e.g., IsA, MadeOf, UsedFor, etc. Then we annotate plausibility and typicality labels of sampled intentions as training data in order to populate human judgments to all automatic generations. Last, to structurize the assertions, we propose pattern mining and conceptualization to form more condensed and abstract knowledge. Extensive evaluations and studies demonstrate that our constructed knowledge graph can well model e-commerce knowledge and have many potential applications.

arxiv情報

著者 Changlong Yu,Weiqi Wang,Xin Liu,Jiaxin Bai,Yangqiu Song,Zheng Li,Yifan Gao,Tianyu Cao,Bing Yin
発行日 2023-05-11 16:33:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク