科學(xué)家提出“隨機(jī)樹”模型,揭示人類如何記憶故事-肽度TIMEDOO

在日常生活中,我們不僅能記住事實(shí)、日期、事件,還能牢牢記住那些意味深長的故事。理解人類是如何記住這些復(fù)雜敘事的,一直是認(rèn)知心理學(xué)領(lǐng)域的重要課題。

近日,美國艾默里大學(xué)、以色列魏茨曼科學(xué)研究所及高等研究院(Institute for Advanced Study)的研究人員,聯(lián)合提出一種數(shù)學(xué)模型,嘗試解釋人類如何將故事類信息存儲于記憶中。這項(xiàng)研究已發(fā)表在《物理評論快報》(Physical Review Letters)上,為人類記憶機(jī)制研究提供了一個融合數(shù)學(xué)、計(jì)算機(jī)科學(xué)與物理的新框架。

“我們的目標(biāo),是建立一個關(guān)于‘有意義記憶材料’的數(shù)學(xué)理論,尤其是敘事類內(nèi)容,”論文資深作者M(jìn)isha Tsodyks教授在接受Medical Xpress采訪時表示。“過去的共識認(rèn)為,故事結(jié)構(gòu)太復(fù)雜,不可能建模。但我們證明這是錯誤的——盡管復(fù)雜,人們在回憶故事時存在可預(yù)測的統(tǒng)計(jì)模式,這些可以由少數(shù)幾個簡單原則解釋?!?/p>

用“隨機(jī)樹”還原人類記憶結(jié)構(gòu)

為了驗(yàn)證這一理論,研究團(tuán)隊(duì)借助亞馬遜(Amazon)和Prolific等在線平臺,對大量受試者進(jìn)行故事回憶實(shí)驗(yàn)。實(shí)驗(yàn)素材取自語言學(xué)家W. Labov于上世紀(jì)60年代錄制的11段真實(shí)口述故事,長度從20到200句不等。研究人員共邀請100名參與者聆聽或閱讀這些故事,并隨后記錄他們的自由回憶內(nèi)容進(jìn)行分析。

“我們很快意識到,面對如此大規(guī)模的數(shù)據(jù),必須使用最新的人工智能工具,尤其是大型語言模型(LLMs)進(jìn)行處理?!盩sodyks解釋說。

通過分析,他們發(fā)現(xiàn)人們在回憶時往往不會逐句逐句復(fù)述,而是傾向于用一句話概括整個段落或事件,這種“壓縮”現(xiàn)象啟發(fā)了他們構(gòu)建記憶模型的新思路。他們提出,人腦在理解故事時,會以“樹狀結(jié)構(gòu)”形式將故事存儲于記憶中:越靠近樹根的節(jié)點(diǎn),代表對故事更抽象、更宏觀的總結(jié)。

“隨機(jī)樹”模型:不同人,不同樹

研究團(tuán)隊(duì)認(rèn)為,個體在初次接觸敘事時,就會在大腦中生成一棵代表故事結(jié)構(gòu)的樹狀圖。而由于每個人的理解方式不同,即便是同一個故事,其內(nèi)部的“記憶樹”結(jié)構(gòu)也不盡相同。

Tsodyks解釋道:“我們把這個理論形式化為一組具有特定結(jié)構(gòu)的隨機(jī)樹集合(ensemble of random trees)。這種模型的美妙之處在于,它具有數(shù)學(xué)可解性,其預(yù)測也可以直接通過實(shí)驗(yàn)數(shù)據(jù)驗(yàn)證——我們已經(jīng)做到了?!?/p>

研究還指出,這種“隨機(jī)樹”模型并非只適用于某些特定故事,而可能是人類普遍處理復(fù)雜敘事信息的一種方式。換句話說,我們不僅用故事理解世界,也以“樹狀”結(jié)構(gòu)記住故事。

為未來研究打開新方向

這項(xiàng)研究展示了數(shù)學(xué)建模與人工智能技術(shù)在理解人類高級認(rèn)知功能方面的巨大潛力。未來,研究團(tuán)隊(duì)計(jì)劃擴(kuò)展模型的適用范圍,探索它是否同樣適用于虛構(gòu)小說等其他敘事類型。

“我們更具挑戰(zhàn)性的下一步,是尋求更直接證明‘樹模型’的證據(jù)?!盩sodyks補(bǔ)充道,“這將需要超越‘自由回憶’實(shí)驗(yàn)的設(shè)計(jì),比如結(jié)合腦成像技術(shù),在人們理解和回憶故事時觀察其腦活動。”

這項(xiàng)研究不僅挑戰(zhàn)了認(rèn)知心理學(xué)中關(guān)于“故事不可建?!钡膫鹘y(tǒng)觀念,也為未來更精細(xì)理解人類如何編碼和提取信息,提供了強(qiáng)有力的理論基礎(chǔ)。

參考文獻(xiàn):Weishun Zhong et al, Random Tree Model of Meaningful Memory,?Physical Review Letters?(2025).?DOI: 10.1103/g1cz-wk1l

編輯:王洪

排版:李麗