KG-TRICK: Unifying Textual and Relational Information Completion of Knowledge for Multilingual Knowledge Graphs

要約

多言語ナレッジ グラフ (KG) は、さまざまな NLP アプリケーションに高品質のリレーショナル情報とテキスト情報を提供しますが、特に英語以外の言語では不完全であることがよくあります。
これまでの研究では、異なる言語の KG からの情報を組み合わせることで、エンティティ間の欠落した関係を予測するタスクであるナレッジ グラフ補完 (KGC)、またはエンティティの欠落しているテキスト情報を予測するタスクであるナレッジ グラフ拡張 (KGE) のいずれかに役立つことが示されています。
これまでの取り組みでは、KGC と KGE は独立したタスクであると考えられていましたが、私たちはこれらが相互に依存しており、相互に有益であると仮説を立てています。
この目的を達成するために、多言語 KG のテキスト情報とリレーショナル情報の補完タスクを統合する新しいシーケンス間フレームワークである KG-TRICK を紹介します。
KG-TRICK は、i) KGC と KGE のタスクを単一のフレームワークに統合することが可能であること、および ii) 複数の言語からのテキスト情報を組み合わせることが KG の完全性を向上させるのに有益であることを実証します。
私たちの貢献の一環として、WikiKGE10++ も紹介します。WikiKGE10++ は、KG のテキスト情報を補完するための手動でキュレーションされた最大のベンチマークであり、10 の多様な言語にわたる 25,000 以上のエンティティを特徴としています。

要約(オリジナル)

Multilingual knowledge graphs (KGs) provide high-quality relational and textual information for various NLP applications, but they are often incomplete, especially in non-English languages. Previous research has shown that combining information from KGs in different languages aids either Knowledge Graph Completion (KGC), the task of predicting missing relations between entities, or Knowledge Graph Enhancement (KGE), the task of predicting missing textual information for entities. Although previous efforts have considered KGC and KGE as independent tasks, we hypothesize that they are interdependent and mutually beneficial. To this end, we introduce KG-TRICK, a novel sequence-to-sequence framework that unifies the tasks of textual and relational information completion for multilingual KGs. KG-TRICK demonstrates that: i) it is possible to unify the tasks of KGC and KGE into a single framework, and ii) combining textual information from multiple languages is beneficial to improve the completeness of a KG. As part of our contributions, we also introduce WikiKGE10++, the largest manually-curated benchmark for textual information completion of KGs, which features over 25,000 entities across 10 diverse languages.

arxiv情報

著者 Zelin Zhou,Simone Conia,Daniel Lee,Min Li,Shenglei Huang,Umar Farooq Minhas,Saloni Potdar,Henry Xiao,Yunyao Li
発行日 2025-01-07 06:21:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク