Random Tree Model of Meaningful Memory

要約

意味のある物語の記憶に関する従来の研究は、特定の物語とその意味構造に焦点を当てていますが、さまざまな物語にわたる想起の共通の定量的特徴には取り組んでいません。
ランダムツリーの統計アンサンブルを導入して、物語をキーポイントの階層として表現します。各ノードは、元の物語セグメントである子孫の葉の圧縮表現です。
想起は、この階層構造からの作業記憶容量によって制約されるものとしてモデル化されます。
私たちの分析ソリューションは、大規模な物語想起実験の観察結果と一致しています。
具体的には、私たちのモデルは、(1) 平均想起長は物語の長さに応じてサブリニアに増加し、(2) 個人は各想起文でますます長い物語セグメントを要約することを説明します。
さらに、理論は、十分に長い物語の場合、単一の想起文によって要約される物語の部分が物語の長さに依存しない分布に従うという、普遍的でスケール不変の限界が現れると予測します。

要約(オリジナル)

Traditional studies of memory for meaningful narratives focus on specific stories and their semantic structures but do not address common quantitative features of recall across different narratives. We introduce a statistical ensemble of random trees to represent narratives as hierarchies of key points, where each node is a compressed representation of its descendant leaves, which are the original narrative segments. Recall is modeled as constrained by working memory capacity from this hierarchical structure. Our analytical solution aligns with observations from large-scale narrative recall experiments. Specifically, our model explains that (1) average recall length increases sublinearly with narrative length, and (2) individuals summarize increasingly longer narrative segments in each recall sentence. Additionally, the theory predicts that for sufficiently long narratives, a universal, scale-invariant limit emerges, where the fraction of a narrative summarized by a single recall sentence follows a distribution independent of narrative length.

arxiv情報

著者 Weishun Zhong,Tankut Can,Antonis Georgiou,Ilya Shnayderman,Mikhail Katkov,Misha Tsodyks
発行日 2024-12-06 16:13:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.stat-mech, cs.AI, cs.CL パーマリンク