DeepKE: A Deep Learning Based Knowledge Extraction Toolkit for Knowledge Base Population

要約

オープンソースで拡張可能な知識抽出ツールキット DeepKE を紹介し、ナレッジ ベース集団における複雑な低リソース、ドキュメント レベル、マルチモーダル シナリオをサポートします。
DeepKE は、固有表現認識、関係抽出、属性抽出などのさまざまな情報抽出タスクを実装します。
DeepKE を使用すると、統一されたフレームワークにより、開発者や研究者はデータセットとモデルをカスタマイズして、要件に応じて非構造化データから情報を抽出できます。
具体的には、DeepKE は、さまざまなタスクやシナリオ向けにさまざまな機能モジュールとモデル実装を提供するだけでなく、十分なモジュール性と拡張性を維持するために一貫したフレームワークによってすべてのコンポーネントを編成します。
GitHub (https://github.com/zjunlp/DeepKE) でソース コードをリリースし、Google Colab チュートリアルと初心者向けの包括的なドキュメントを提供します。
さらに、さまざまなタスクをリアルタイムで抽出するためのオンライン システムを http://deepke.openkg.cn/EN/re_doc_show.html で紹介し、デモ ビデオも公開しています。

要約(オリジナル)

We present an open-source and extensible knowledge extraction toolkit DeepKE, supporting complicated low-resource, document-level and multimodal scenarios in the knowledge base population. DeepKE implements various information extraction tasks, including named entity recognition, relation extraction and attribute extraction. With a unified framework, DeepKE allows developers and researchers to customize datasets and models to extract information from unstructured data according to their requirements. Specifically, DeepKE not only provides various functional modules and model implementation for different tasks and scenarios but also organizes all components by consistent frameworks to maintain sufficient modularity and extensibility. We release the source code at GitHub in https://github.com/zjunlp/DeepKE with Google Colab tutorials and comprehensive documents for beginners. Besides, we present an online system in http://deepke.openkg.cn/EN/re_doc_show.html for real-time extraction of various tasks, and a demo video.

arxiv情報

著者 Ningyu Zhang,Xin Xu,Liankuan Tao,Haiyang Yu,Hongbin Ye,Shuofei Qiao,Xin Xie,Xiang Chen,Zhoubo Li,Lei Li,Xiaozhuan Liang,Yunzhi Yao,Shumin Deng,Peng Wang,Wen Zhang,Zhenru Zhang,Chuanqi Tan,Qiang Chen,Feiyu Xiong,Fei Huang,Guozhou Zheng,Huajun Chen
発行日 2023-09-18 16:42:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR, cs.LG パーマリンク