要約
タイトル: 知識の豊富なハイパーグラフ認知ネットワークに向けて
要約:
-現在のネットワークアプローチは、記憶再呼出しパターンを二項リンクで表現するため、三つ以上の概念間の関係を無視している。
-高次の相互作用は、刺激、価値、親しみやすさ、性別などの心理言語的寸法に沿って、類似した概念の記憶に含まれている可能性がある。
-研究者らは、特徴豊かな認知ハイパーグラフを紹介し、多数の概念の関係が複数の概念にまたがるハイパーリンクによって表現されることができるようにすることで、高次の相互作用をカバーすることができた。
-さらに、それぞれの概念に心理言語的特徴のベクトルを与えることで、特徴豊かな側面を持たせることができた。
-研究者は、単語連想データからハイパーグラフを構築し、機械学習特徴の評価法を使用して概念の具体性を予測する。
-さらに、心理言語的特徴のみ、二項ベースの特徴集約、ハイパーグラフベースの集約の3つの方法で学習した解釈可能なAIモデルを使用して、2つの方法を比較し、ハイパーグラフが高次の相互作用と特徴豊かなモデルを含んでおり、単純なペアワイズネットワークよりも情報を豊富に持っていることがわかった。
-この研究の結果は、従来の概念的分類と相関の研究を説明し、この新しいアプローチが人間の記憶に対して機能する可能性を示唆している。
要約(オリジナル)
Semantic networks provide a useful tool to understand how related concepts are retrieved from memory. However, most current network approaches use pairwise links to represent memory recall patterns. Pairwise connections neglect higher-order associations, i.e. relationships between more than two concepts at a time. These higher-order interactions might covariate with (and thus contain information about) how similar concepts are along psycholinguistic dimensions like arousal, valence, familiarity, gender and others. We overcome these limits by introducing feature-rich cognitive hypergraphs as quantitative models of human memory where: (i) concepts recalled together can all engage in hyperlinks involving also more than two concepts at once (cognitive hypergraph aspect), and (ii) each concept is endowed with a vector of psycholinguistic features (feature-rich aspect). We build hypergraphs from word association data and use evaluation methods from machine learning features to predict concept concreteness. Since concepts with similar concreteness tend to cluster together in human memory, we expect to be able to leverage this structure. Using word association data from the Small World of Words dataset, we compared a pairwise network and a hypergraph with N=3586 concepts/nodes. Interpretable artificial intelligence models trained on (1) psycholinguistic features only, (2) pairwise-based feature aggregations, and on (3) hypergraph-based aggregations show significant differences between pairwise and hypergraph links. Specifically, our results show that higher-order and feature-rich hypergraph models contain richer information than pairwise networks leading to improved prediction of word concreteness. The relation with previous studies about conceptual clustering and compartmentalisation in associative knowledge and human memory are discussed.
arxiv情報
著者 | Salvatore Citraro,Simon De Deyne,Massimo Stella,Giulio Rossetti |
発行日 | 2023-04-13 09:56:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI