Truveta Mapper: A Zero-shot Ontology Alignment Framework

要約

【タイトル】Truveta Mapper:ゼロショットオントロジーアラインメントフレームワーク

【要約】
– オントロジーのマッチング(OM)またはアライメント(OA)を翻訳タスクとみなすという新しい観点が提唱された。
– オントロジーはグラフとして表現され、翻訳はソースオントロジーグラフのノードからターゲットオントロジーグラフのパスに行われる。
– 提案されたフレームワークであるTruveta Mapper(TM)は、ゼロショット、一元化、エンドツーエンドで複数のオントロジーのアラインメントを行うために、マルチタスクシーケンスツーシーケンストランスフォーマーモデルを活用している。
– マルチタスクは、明示的なクロスオントロジー手動ラベルデータを必要とせずに、モデルが異なるオントロジー間の関係を転送学習を通じて暗黙的に学習することを可能にする。
– 提案されたソリューションは、既存のテキストコーパスと内部オントロジーデータだけで事前トレーニングされ、状態-of-the-artのアプローチ、Edit-Similarity、LogMap、AML、BERTMap、および最近のOMフレームワークよりも優れたアラインメント品質を提供している。
– エンドツーエンド方法とは対照的に、ログリニアの複雑さを提供し、マッピング拡張またはマッピング修復を含むポストプロセッシングを必要とせずに、OMタスクを効率的かつより簡単に行うことができる。

要約(オリジナル)

In this paper, a new perspective is suggested for unsupervised Ontology Matching (OM) or Ontology Alignment (OA) by treating it as a translation task. Ontologies are represented as graphs, and the translation is performed from a node in the source ontology graph to a path in the target ontology graph. The proposed framework, Truveta Mapper (TM), leverages a multi-task sequence-to-sequence transformer model to perform alignment across multiple ontologies in a zero-shot, unified and end-to-end manner. Multi-tasking enables the model to implicitly learn the relationship between different ontologies via transfer-learning without requiring any explicit cross-ontology manually labeled data. This also enables the formulated framework to outperform existing solutions for both runtime latency and alignment quality. The model is pre-trained and fine-tuned only on publicly available text corpus and inner-ontologies data. The proposed solution outperforms state-of-the-art approaches, Edit-Similarity, LogMap, AML, BERTMap, and the recently presented new OM frameworks in Ontology Alignment Evaluation Initiative (OAEI22), offers log-linear complexity in contrast to quadratic in the existing end-to-end methods, and overall makes the OM task efficient and more straightforward without much post-processing involving mapping extension or mapping repair.

arxiv情報

著者 Mariyam Amir,Murchana Baruah,Mahsa Eslamialishah,Sina Ehsani,Alireza Bahramali,Sadra Naddaf-Sh,Saman Zarandioon
発行日 2023-03-31 22:05:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク