深圳研究生院信息工程學(xué)院田永鴻教授團隊與合作者在復(fù)雜性類腦網(wǎng)絡(luò)構(gòu)建方面取得研究突破
構(gòu)建更加通用的人工智能,讓模型具有更加廣泛和通用的認知能力,是當(dāng)前人工智能領(lǐng)域發(fā)展的重要目標(biāo)。目前流行的大模型路徑是基于尺度定律(Scaling Law)去構(gòu)建更大、更深和更寬的神經(jīng)網(wǎng)絡(luò),可稱之為“基于外生復(fù)雜性”的通用智能實現(xiàn)方法。這一路徑面臨著計算資源及能源消耗難以為繼、可解釋性不足等問題。作為自然界最卓越的智能體,生物大腦成為人工智能研究最重要的參考對象。近年來,腦科學(xué)與人工智能的研究在相互促進中快速發(fā)展,尤其是類腦計算研究受到廣泛關(guān)注。北大深圳研究生院田永鴻教授團隊聯(lián)合中國科學(xué)院自動化研究所李國齊、徐波研究團隊等借鑒大腦神經(jīng)元復(fù)雜動力學(xué)特性,提出了“基于內(nèi)生復(fù)雜性”的類腦神經(jīng)元模型構(gòu)建方法,改善了傳統(tǒng)模型通過向外拓展規(guī)模帶來的計算資源消耗問題,為有效利用神經(jīng)科學(xué)發(fā)展人工智能提供了示例。相關(guān)研究論文8月16日在線發(fā)表于《自然·計算科學(xué)》(Nature Computational Science),該基礎(chǔ)研究工作為推動自然智能與人工智能差距的彌合、降低AI碳足跡等科學(xué)領(lǐng)域提供了工具和框架。
圖1. 神經(jīng)元和神經(jīng)網(wǎng)絡(luò)的內(nèi)生復(fù)雜性與外部復(fù)雜性
編者注:HH神經(jīng)元模型,全稱為Hodgkin-Huxley模型,由英國生理學(xué)家Alan Hodgkin和Andrew Huxley在1952年基于魷魚巨型軸突的電生理實驗數(shù)據(jù)提出,用以描述神經(jīng)脈沖的產(chǎn)生和傳導(dǎo),并因此獲得了1963年的諾貝爾醫(yī)學(xué)或生理學(xué)獎。該模型是一組描述神經(jīng)元細胞膜電生理現(xiàn)象的非線性微分方程,直接反映了細胞膜上離子通道的開閉情況及其與膜電位變化之間的關(guān)系。HH模型是神經(jīng)科學(xué)領(lǐng)域中的一個重要里程碑,它首次從分子水平上解釋了動作電位的產(chǎn)生機制,為后續(xù)神經(jīng)元電生理研究奠定了基礎(chǔ)。LIF模型,全稱為Leaky Integrate-and-Fire模型,Lapicque于1907年提出了Integrate-and-Fire(I&F)模型,輸入脈沖可以集成到膜電位中,如果達到定義的閾值,則輸出產(chǎn)生脈沖,膜電位回落至靜息狀態(tài)。LIF模型是I&F神經(jīng)元模型的重要類型之一,增加了膜電位的泄漏。LIF模型簡化了神經(jīng)元動作電位過程,具有模擬神經(jīng)元脈沖效率較高、計算成本較低等特性,成為大規(guī)模脈沖神經(jīng)網(wǎng)絡(luò)(SNN)中采用的主要神經(jīng)元模型。
在類腦計算研究中,脈沖神經(jīng)網(wǎng)絡(luò)(SNN)占據(jù)核心地位,是最具有生物意義、最類似大腦運行機制的神經(jīng)網(wǎng)絡(luò)模型,被認為是新一代的神經(jīng)網(wǎng)絡(luò)。本研究首先展示了脈沖神經(jīng)網(wǎng)絡(luò)神經(jīng)元LIF(Leaky Integrate and Fire)模型和HH(Hodgkin-Huxley)模型在動力學(xué)特性上存在等效性,進一步從理論上證明了HH神經(jīng)元可以和四個具有特定連接結(jié)構(gòu)的時變參數(shù)LIF神經(jīng)元(tv-LIF)動力學(xué)特性等效?;谶@種等效性,團隊通過設(shè)計微架構(gòu)提升計算單元的內(nèi)生復(fù)雜性,使HH網(wǎng)絡(luò)模型能夠模擬更大規(guī)模LIF網(wǎng)絡(luò)模型的動力學(xué)特性,在更小的網(wǎng)絡(luò)架構(gòu)上實現(xiàn)與之相似的計算功能。
進一步,團隊將由四個tv-LIF神經(jīng)元構(gòu)建的“HH模型”(tv-LIF2HH)簡化為s-LIF2HH模型,通過仿真實驗驗證了這種簡化模型在捕捉復(fù)雜動力學(xué)行為方面的有效性。
圖2. 模型框架
實驗結(jié)果表明HH網(wǎng)絡(luò)模型和s-LIF2HH網(wǎng)絡(luò)模型在表示能力和魯棒性上具有相似的性能,驗證了內(nèi)生復(fù)雜性模型在處理復(fù)雜任務(wù)時的有效性和可靠性。同時,研究發(fā)現(xiàn)HH網(wǎng)絡(luò)模型在計算資源消耗上更為高效,顯著減少了內(nèi)存和計算時間的使用,從而提高了整體的運算效率。研究團隊通過信息瓶頸理論對上述研究結(jié)果進行了解釋。
本研究為將神經(jīng)科學(xué)的復(fù)雜動力學(xué)特性融入人工智能、為構(gòu)筑人工智能與神經(jīng)科學(xué)的橋梁提供了新的方法和理論支持,為實際應(yīng)用中的AI模型優(yōu)化和性能提升提供了可行的解決方案。目前,研究團隊已開展對更大規(guī)模HH網(wǎng)絡(luò),以及具備更大內(nèi)生復(fù)雜性的多分支多房室神經(jīng)元的研究,有望進一步提升大模型的計算效率與任務(wù)處理能力,實現(xiàn)在實際應(yīng)用場景中的快速落地。
該工作的共同通訊作者為李國齊、徐波、田永鴻。共同第一作者是清華大學(xué)錢學(xué)森班的本科生何林軒(自動化所實習(xí)生)、數(shù)理基科班本科生徐蘊輝(自動化所實習(xí)生)、精儀系博士生何煒華和林逸晗。
編者注:
Nature Computational Science期刊發(fā)表了來自UC Santa Cruz電氣與計算機工程助理教授、開源類腦軟件Snn Torch的核心貢獻者Jason Eshraghian對此研究的評論:“AI 研究更加貼近工程與應(yīng)用,而神經(jīng)科學(xué)的研究更加具有探索性。研究團隊挑戰(zhàn)了這一傳統(tǒng)觀點,并表明更詳細且生物學(xué)上更真實的神經(jīng)元模型可以推動深度學(xué)習(xí)取得更大進展?!?/p>
論文鏈接:
https://www.nature.com/articles/s43588-024-00674-9
評論鏈接:
https://www.nature.com/articles/s43588-024-00677-6
延伸閱讀:
探討如何從大腦中獲得靈感、使人工智能更加高效、彌合自然智能與人工智能之間的差距并取長補短、降低AI的碳足跡是生物學(xué)、認知科學(xué)、信息學(xué)等學(xué)科進行交叉與融合的重要研究內(nèi)容,提升SNN響應(yīng)外部環(huán)境變化的實時性和自適應(yīng)性,降低計算和通信的能耗,促進大規(guī)模SNN新模型的構(gòu)建和部署,支持實現(xiàn)高可解釋性、強泛化能力的人工智能,將對拓展人工智能的更廣闊應(yīng)用前景注入發(fā)展動能。
Nature Computational Science由Springer Nature于2021年推出,專注于開發(fā)和使用計算技術(shù)和數(shù)學(xué)模型,并將其應(yīng)用于解決各個科學(xué)領(lǐng)域的復(fù)雜問題。該期刊的主要目標(biāo)是促進多學(xué)科研究和新計算技術(shù)的跨學(xué)科應(yīng)用,既刊登基礎(chǔ)研究,也刊登應(yīng)用研究,既刊登有助于推動科學(xué)研究的突破性算法、工具和框架,也刊登以新穎方式利用計算能力發(fā)現(xiàn)新見解和對挑戰(zhàn)性現(xiàn)實問題的解決方案。通過這種方式,該期刊創(chuàng)造了一個獨特的環(huán)境,讓不同學(xué)科的人員匯聚一堂,共同討論計算科學(xué)的最新進展。
來源:北京大學(xué)


本文系作者 @TIMEDOO 原創(chuàng)發(fā)布在 肽度TIMEDOO。未經(jīng)許可,禁止轉(zhuǎn)載。