Topological properties and organizing principles of semantic networks

要約

タイトル: セマンティックネットワークのトポロジー的特性と構成原則

要約:

– 背景:
– 自然言語の解釈は、非構造化のテキストデータがますます利用可能になることにより、コンピュータアルゴリズムでの重要なタスクとなっている。
– 自然言語処理(NLP)アプリケーションは、構造化された知識表現のためにセマンティックネットワークを利用する
– NLPアルゴリズムを設計する際に、セマンティックネットワークの基本的な特性を考慮する必要があるが、実際にはこれらの特性は構造的に研究されていない。
– 方法:
– 11種類の言語から7つの意味関係で定義されたConceptNetからセマンティックネットワークの特性を研究する。
– 結果:
– セマンティックネットワークには、基本的な特性が存在することがわかった。
– セマンティックネットワークは、希疎である
– クラスター化されている
– 次数分布のパワーロー則を示す
– ほとんどのネットワークはスケールフリーであることがわかった。
– 一部のネットワークは文法規則によって決定される言語固有の特性を示す。
– 例:活用言語のネットワーク(ラテン語、ドイツ語、フランス語、スペイン語など)は、次数分布にパワーローから外れたピークを示す。
– セマンティックネットワーク内のリンク形成は、意味関係タイプや言語によって異なる原則に従っていることがわかった。
– 一部のネットワークでは類似性に基づいて接続が行われる。
– 他のネットワークでは、接続が補完性に基づいている。
– 最後に、セマンティックネットワークの類似性と補完性の知識が、欠損リンク推論のNLPアルゴリズムを改善する方法を示す。

要約(オリジナル)

Interpreting natural language is an increasingly important task in computer algorithms due to the growing availability of unstructured textual data. Natural Language Processing (NLP) applications rely on semantic networks for structured knowledge representation. The fundamental properties of semantic networks must be taken into account when designing NLP algorithms, yet they remain to be structurally investigated. We study the properties of semantic networks from ConceptNet, defined by 7 semantic relations from 11 different languages. We find that semantic networks have universal basic properties: they are sparse, highly clustered, and exhibit power-law degree distributions. Our findings show that the majority of the considered networks are scale-free. Some networks exhibit language-specific properties determined by grammatical rules, for example networks from highly inflected languages, such as e.g. Latin, German, French and Spanish, show peaks in the degree distribution that deviate from a power law. We find that depending on the semantic relation type and the language, the link formation in semantic networks is guided by different principles. In some networks the connections are similarity-based, while in others the connections are more complementarity-based. Finally, we demonstrate how knowledge of similarity and complementarity in semantic networks can improve NLP algorithms in missing link inference.

arxiv情報

著者 Gabriel Budel,Ying Jin,Piet Van Mieghem,Maksim Kitsak
発行日 2023-04-24 11:12:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, physics.soc-ph パーマリンク