要約
タイトル:マルチモーダルのエンティティアラインメントに対する属性一貫性のある知識グラフ表現学習
要約:
– 多様な属性と隣接エンティティは、多様な知識グラフ間の等価なエンティティペアを見つけるために貴重です。
– しかし、既存の研究では、対応付けられたエンティティが特定のモダリティの属性の数が異なる問題を無視しています。
– 本研究では、一貫性のあるアラインメント知識を統合することによって、コンテキストの隙間問題を補完するための属性一貫性のある知識グラフ表現学習フレームワークを提案します。
– マルチモーダル属性の均一化によって一貫した属性の知識グラフ(ACKG)を構築し、ランダムドロップアウトを含む関係に敏感なグラフニューラルネットワークに送信して集約された関係表現と堅牢なエンティティ表現を取得します。
– エンティティアラインメントのためにACK-MMEAをファシリテートするために、エンティティと属性の評価のための共同アラインメント損失を特別に設計しています。
– 2つのベンチマーク・データセットで実施された広範な実験により、提案手法は競合手法に比べて優れたパフォーマンスを達成しました。
要約(オリジナル)
The multi-modal entity alignment (MMEA) aims to find all equivalent entity pairs between multi-modal knowledge graphs (MMKGs). Rich attributes and neighboring entities are valuable for the alignment task, but existing works ignore contextual gap problems that the aligned entities have different numbers of attributes on specific modality when learning entity representations. In this paper, we propose a novel attribute-consistent knowledge graph representation learning framework for MMEA (ACK-MMEA) to compensate the contextual gaps through incorporating consistent alignment knowledge. Attribute-consistent KGs (ACKGs) are first constructed via multi-modal attribute uniformization with merge and generate operators so that each entity has one and only one uniform feature in each modality. The ACKGs are then fed into a relation-aware graph neural network with random dropouts, to obtain aggregated relation representations and robust entity representations. In order to evaluate the ACK-MMEA facilitated for entity alignment, we specially design a joint alignment loss for both entity and attribute evaluation. Extensive experiments conducted on two benchmark datasets show that our approach achieves excellent performance compared to its competitors.
arxiv情報
著者 | Qian Li,Shu Guo,Yangyifei Luo,Cheng Ji,Lihong Wang,Jiawei Sheng,Jianxin Li |
発行日 | 2023-04-04 06:39:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI