?

脈沖神經網絡研究現狀與應用進展

2024-01-19 06:55劉浩柴洪峰孫權云昕李鑫
中國工程科學 2023年6期
關鍵詞:類腦神經元脈沖

劉浩 ,柴洪峰 ,孫權 ,云昕 ,李鑫

(1. 建信金融科技有限責任公司基礎技術中心,上海 200120;2. 復旦大學計算機科學技術學院,上海 200438;3. 復旦大學金融科技研究院,上海 200438;4. 中國銀聯股份有限公司金融科技研究院,上海 201201;5. 上海大學悉尼工商學院,上海 200444)

一、前言

人工神經網絡(ANN)作為人工智能技術發展的重要推動力,經過幾代進化,已成為分析和解決問題的重要工具。第一代ANN被稱為感知機,代表性的是1958年美國構建的兩層神經元網絡[1],可以模擬人類可感覺、可識別、可記憶和可反應的感知能力。第二代ANN是20世紀80年代中期出現的基于聯結主義的多層人工神經網絡[2],特別是2006年以來以卷積神經網絡(CNN)為基礎的深度學習方案引領了人工智能發展[3]。盡管ANN的發展取得了顯著進步,但深度神經網絡在功耗效率、安全性、可解釋性和在線學習能力等方面仍面臨諸多挑戰,制約了ANN的進一步應用。

作為自然界最卓越的智能體,生物大腦成為人工智能研究最重要的參考對象。近年來,腦科學與人工智能的研究在相互促進中快速發展,尤其是類腦計算研究受到廣泛關注。類腦計算是一種模仿神經生理學和生理心理學機制、以計算建模為依托、通過軟硬件協同實現的機器智能計算,兼具生物合理性和計算高效性,未來有望成為人工智能新的計算范式。類腦計算不是對人腦神經元進行簡單模擬,而是對人腦的信息處理機制、復雜工作方式、學習、思考、推理、決策的本質性機理進行深層次的探索和模擬。各國紛紛部署類腦計算發展研究,以期在新一輪世界科技革命競爭中掌握主導權。美國、歐盟、日本等國家和地區組織了以類腦計算為核心的腦科學計劃。美國在2013年提出了“人腦計劃”,將神經信息學、高性能計算、腦機接口、類腦相關理論建模等列為研究重點。歐盟在2013年推出“人類腦計劃”,在大腦模擬、神經形態計算、醫學信息學和神經機器人等領域開展聯合攻關。日本在2008年啟動“腦科學戰略研究項目”,重點布局神經信息基礎技術、腦科學與教育社會、腦科學與信息產業、腦科學與健康等領域的研究。我國在2016年發布《“十三五”國家科技創新規劃》,將腦科學與類腦研究納入“科技創新2030—重大項目”。

在類腦計算研究中,脈沖神經網絡(SNN)占據核心地位,是最具有生物意義、最類似大腦運行機制的神經網絡模型,被認為是新一代的神經網絡[4]。SNN以脈沖神經元為計算單元,模仿人類大腦的信息編碼和處理過程。SNN和ANN具有顯著差異。在處理數據方式方面,SNN采用離散事件(脈沖)對數據進行編碼處理,與ANN相比,能耗顯著降低、計算能力更加突出[5]。在神經元模型方面,ANN通常采用大量簡單的計算單元,如修正線性單元(ReLU)、sigmoid函數、tanh函數等,將這些單元相互連接形成復雜神經網絡;SNN則采用具有記憶的非差分神經元模型構造神經網絡,如霍奇金 - 赫胥黎(H-H)模型、泄漏積分發射(LIF)模型等,具備可提取數據時空特征、功耗更低、更適合并行計算的優勢,已被廣泛應用于語音識別[6,7]、視覺處理[8,9]、醫療診斷[10,11]等領域。

在存算分離的馮·諾依曼計算架構上,大規模的SNN模型處理需要較多時間和功耗,因而,SNN硬件實現技術的相關研究成為當今研究的熱點。神經形態硬件設計模式主要包括模擬電路、數字電路和數?;旌想娐?。模擬電路設計模式的功耗較低,數字電路設計模式對于處理大規模SNN模型更為靈活、成本更低[12,13]?,F場可編程邏輯門陣列(FPGA)在軟硬件協同設計時,在實現模型量化和稀疏化方面具有獨特優勢,被認為是實現數字神經形態平臺的核心技術方案之一;目前在單個FPGA設備上已嘗試處理SNN模型,相比于中央處理器(CPU)和圖形處理器(GPU)實現方式,其速度更快、功耗更低[14,15]。此外,研究人員結合數字電路技術和模擬電路設計方法,開發數?;旌想娐吩O計模式,克服了傳統模擬電路抗干擾能力較弱、保密性較差等缺陷。

本文首先介紹SNN的基本要素及學習算法,包括神經元模型、突觸可塑性機制、信息編碼方式和SNN訓練算法;其次,細致梳理SNN相關軟、硬件的研究進展,從計算機視覺、自然語言處理、推理決策等方面詳細闡述SNN的最新應用情況。相關研究內容可為人工智能領域技術發展、產業應用等提供全面、客觀、科學的評價和建議,以期促進技術創新和產業發展。

二、脈沖神經網絡的基本要素及學習算法

SNN的基本要素及其相關生物學理論基礎主要包括具有動力學特性的神經元模型、突觸可塑性機制、基于脈沖序列的信息編碼方式,進而形成低能耗、高魯棒性、高認知能力的新一代人工智能模型。SNN領域的核心訓練算法和技術主要包括:有監督學習、無監督學習、ANN向SNN轉化和其他進化算法。

(一)神經元模型

脈沖神經元與傳統ANN神經元的結構相似,但工作行為具有較大差異。經過多年發展,已建立了多種脈沖神經元模型,如H-H模型、LIF模型、Izhikevich模型和脈沖響應模型(SRM)等。這些模型刻畫了神經元的生物動力學特性,具有一定的計算復雜性。以下對4種具有代表性的神經元模型進行介紹。

1. H-H模型

1952年,Hodgkin和Huxley研究了神經元中動作電位的啟動與傳播機制,提出了電流通過膜電位的數學模型[16],即H-H模型。H-H模型準確表述了神經元的真實動力學特性,是生物學意義上最合理的脈沖神經元模型[17]。然而,H-H模型的微分方程需要連續計算,每模擬1 ms約需要1200次浮點運算[18],計算復雜性較高。因此,此模型不太適合大規模的SNN模擬計算。

2. Leaky Integrate-and-Fire模型

1907年,Lapicque提出了Integrate-and-Fire(I&F)模型,輸入脈沖可以集成到膜電位中,如果達到定義的閾值,則輸出產生脈沖,膜電位回落至靜息狀態[17]。LIF模型是I&F神經元模型的重要類型之一,增加了膜電位的泄漏。LIF模型簡化了神經元動作電位過程,具有模擬神經元脈沖效率較高、計算成本較低等特性,成為大規模SNN中采用的主要神經元模型[19,20]。此外,基于亞閾值晶體管和電容器電位表現,較容易對神經元集成和衰減動力學特性建模,因此,在SNN硬件實現研究中,也廣泛運用LIF神經元模型[19]。在LIF模型的基礎上還存在諸多變體,如指數LIF模型、二階LIF模型以及自適應指數LIF模型等[21]。

3. Izhikevich模型

2003年,Izhikevich提出了一個兼具H-H模型動力學特性和LIF模型計算效率的神經元模型[22],即Izhikevich模型。這是一個二維脈沖神經元模型,每1 ms模擬需要約13次浮點運算[18],可應用于處理較為復雜的工程問題,如模擬海馬體功能。

4. 脈沖響應模型(SRM)

SRM是基于LIF模型提出的一種通用模型,更加精確地描述了輸入脈沖對膜電位的影響[23]。與LIF模型不同,SRM包含了對于重置和不應期的模擬。此外,SRM模型采用濾波器的方法描述膜電位變化,而LIF模型則采用微分方程進行刻畫。

總體而言,目前已提出了多種在生物可信度和計算可行性方面存在一定差異的脈沖神經元模型[24](見圖1),用戶可以權衡二者利弊,根據自身需求選擇合適的神經元模型。LIF模型因其較低的實現代價,已廣泛應用于神經元動力學特性的刻畫;但與H-H等復雜神經元模型相比,LIF模型在生物可信度方面仍存在不足。因此,建立一個計算效率高且生物學上更合理的神經元模型仍是當前亟待研究的問題[25]。

圖1 不同神經元模型的生物可信度與實現代價

(二)突觸可塑性機制

突觸是神經元之間在功能上發生聯系的部位,是信息傳遞的關鍵部位(見圖2)。當上游神經元放電時,脈沖信號通過突觸刺激下游神經元的膜電位。從功能來看,突觸可以分為興奮性突觸和抑制性突觸兩類。突觸前神經元脈沖通過突觸傳遞,影響突觸后神經元的活動,若輸入的脈沖增加突觸后神經元的膜電位,即為興奮性突觸;若輸入的脈沖降低突觸后神經元的膜電位,即為抑制性突觸。突觸連接強度決定了神經元膜電位變化的大小,可視為兩個神經元連接的權重表征。研究發現,突觸強度是可調節的,會隨著突觸連接的前后神經元發放脈沖的相對時間推移而增強或減弱,這種現象被稱為脈沖時間相關的突觸可塑性(STDP)[26]。STDP規則揭示了突觸結構內權重變化的過程,已被引入SNN模型,用來增加生物可信度。

圖2 突觸結構

(三)信息編碼

在生物神經系統中,信息是被分散編碼并通過動態神經來表達的。神經脈沖序列是信息在神經系統中的一種重要表達方式。為了描述這種神經活動,研究人員提出了多種編碼方法,其中頻率編碼和時間編碼是兩種較為常見的神經信息編碼方式[27]。

頻率編碼是通過神經元的脈沖發射頻率來傳遞信息的,如圖3(a)所示。頻率編碼機制較為簡單,在復雜任務處理方面具有突出的表現[28,29]。時間編碼是通過神經元的脈沖時間序列來傳遞信息的,包括時滯編碼、排序編碼、相位編碼等,分別如圖3(b)、圖3(c)、圖3(d)所示。在時滯編碼中,神經脈沖的產生時間與刺激的強度呈負相關[30]。排序編碼是對脈沖到達的順序進行特定編碼[31],可以更好與LIF神經元模型結合,實現高斯差分濾波效果,有利于特征提取[32]。相位編碼根據背景振蕩對脈沖相位中的信息進行編碼,已應用于機器人導航和嗅覺系統[33]。頻率編碼和時間編碼主要關注的是單個神經元的信息編碼方式。除此之外,研究人員還提出了群編碼,即聯合多個神經元對刺激產生的信息進行編碼。在群編碼中,每個神經元都可以生成具有精確時間的脈沖序列,同時還包含與其他神經元的關系(如高斯接受域),有助于提升信息編碼的生物可信性[34]。

圖3 脈沖信息編碼方式

信息編碼的方式會顯著影響SNN的性能表現。神經元模型、軟件框架、硬件約束、應用場景和目標等對于信息編碼方式的選擇都具有重要影響[35]??傮w來看,當前大多數信息編碼方式只是從不同角度完成對神經元信息的表征,在任務表現、功耗等方面還有較大提升空間。探索研發一種更為通用、理想、全面的SNN信息編碼方式仍將是未來研究的重點問題。

(四)學習算法

SNN的神經元信息以脈沖序列進行傳遞,不再滿足連續可微的性質,因此傳統的ANN學習算法不能直接應用于SNN。研究人員在考慮各類神經元模型與信息編碼的差異性、平衡生物合理性及計算可行性的基礎上,提出了多種訓練算法,主要包括有監督學習算法、無監督學習算法、ANN向SNN轉化和進化算法。

1. 有監督學習算法

有監督學習算法通常是利用帶有標簽的訓練數據,學習一個從輸入變量到輸出變量的函數映射關系。在SNN中,這種標簽以具有時序屬性的目標脈沖序列形式進行編碼。算法旨在學習網絡的連接權重,以便特定地識別各種輸入并輸出相應的目標脈沖序列。在SNN的有監督學習算法中,大部分監督學習規則是基于梯度優化的方法,學習目標是試圖最小化目標脈沖序列和輸出脈沖序列之間的誤差。脈沖信號在時間維度上是離散的,脈沖形式的激活函數是不可微的,導致SNN無法直接應用基于誤差反向傳播的梯度優化算法。因此,SNN監督學習算法研究受到眾多研究者的關注,已提出了多種有監督學習算法[36~41]。

2. 無監督學習算法

無監督學習通過對無標簽樣本數據的學習來揭示數據的內在特性及規律。SNN的無監督學習算法是基于Hebb學習規則建立的。其中,STDP學習規則是Hebb學習規則的典型代表,可以直觀反映兩個神經元之間的突觸強度取決于突觸前和突觸后脈沖的相對時間[42,43]。如果刺激突觸前神經元末梢,突觸后電位增加導致突觸傳遞效率保持長時間強化,則代表突觸的權重增加,這種現象被稱為長時程增強作用(LTP);如果神經元受到反復刺激后,突觸傳遞效率明顯且持續降低,則代表突觸的權重降低,這種現象被稱為長時程抑制作用(LTD)[44,45]。LTP、LTD兩種可塑性為理解和描述STDP學習規則中神經元之間復雜的相互作用提供了重要理論支撐[46]。近年來,研究人員基于STDP學習規則提出了多種SNN無監督學習算法[45~49]。由于更注重網絡相近兩層的連接、缺乏與網絡其他部分的關聯和協調,STDP學習規則在應用于多層網絡時的準確性不足。

3. ANN向SNN轉換

SNN神經元復雜的動態行為和對時間的高度敏感性,導致SNN訓練算法設計面臨較大挑戰,算法成熟度欠缺。一些研究者開始關注將ANN直接轉化為SNN,即利用較為成熟的ANN訓練算法來訓練深度神經網絡,然后通過頻率編碼將ANN中ReLU函數的神經元非線性激活值轉換為SNN中I&F神經元脈沖發放率,實現ANN向SNN的轉化,從而避免了直接訓練SNN的難題[28,29,50~52]。ANN轉換為SNN的優點有:一是可以廣泛利用基于ANN開發的高效學習訓練技術,如應用于分類任務的先進深度學習網絡可以轉換為SNN,并且可以將其直接部署在專為模擬神經元和突觸操作而設計的神經形態硬件上,簡化了從理論到實用的轉變過程;二是相比于傳統ANN,由ANN轉化的SNN在實現較高準確性的同時降低了信號傳輸和計算的成本,即使對于ImageNet和CIFAR-10等具有挑戰性的大型數據集,其精度損失也很小[29,53]。然而,ANN向SNN轉化的技術方法仍存在一些缺陷。一是ANN向SNN轉化具有一定要求,如不能采用最大池化、批歸一化等方法。二是大部分ANN向SNN轉化所采用的信息編碼方法為頻率編碼,通常需要大量輸入脈沖,仿真步數較長,這與降低額外能耗的原始目標有所相悖。三是有關ANN向SNN轉換方法的研究主要集中于開發新結構的轉換技術和減少與ANN之間的性能差距,對SNN特性的研究并不深入,不利于推動SNN的進一步發展。

4. 進化算法

進化算法受生物的演化機制啟發,通過模擬繁殖、突變、遺傳重組、自然選擇等演化過程,對最優化問題的候選解做演化計算。與傳統的基于微積分的方法和窮舉方法等優化算法相比,進化算法是一種成熟的、高魯棒性和廣泛適用性的全局優化方法,具有自組織、自適應、自學習的特性,能夠不受問題性質的限制,有效處理傳統優化算法難以解決的復雜問題。研究人員試圖將進化算法與SNN有機結合起來,基于進化算法訓練SNN,有效對脈沖神經元突觸的權重進行優化,提高對復雜問題的求解能力[54~58]。然而,進化算法的計算較為耗時,適應度函數計算成本較高[59];同時,基于進化算法訓練的SNN在解決特大規模問題方面具有一定的局限性[60]。

三、脈沖神經網絡軟件與硬件研究進展

SNN軟件模擬器提供了一個可控且靈活的研究和開發環境,可模擬神經元動態行為和脈沖傳播,實現SNN學習訓練、快速建模和仿真。脈沖神經形態芯片是模仿生物神經系統結構和功能的硬件,具有高度并行和事件驅動的特點,能顯著提高SNN的運算速度和能效。為了解SNN軟件與硬件的情況,首先對主流的SNN軟件模擬器從模擬計算方法、編程語言、并行度、主要功能等方面進行介紹;其次,對基于數?;旌想娐泛腿珨底蛛娐吩O計的神經形態芯片進行介紹。

(一)SNN軟件模擬器

SNN軟件模擬器可以幫助SNN建模和學習訓練,快速運行基于SNN設計的應用程序?,F有的SNN軟件模擬器在脈沖神經元模型的生物可信度、模擬計算速度和硬件平臺支持方面具有很大差異。根據神經元動力模型的評估方式,可以將SNN軟件模擬器分為兩大類:時鐘驅動和事件驅動。時鐘驅動指神經元狀態變量的更新限定在給定的離散時間點上;事件驅動指只有當脈沖神經元發放脈沖時,神經形態系統才會觸發計算[61]。

多數SNN軟件模擬器采用時鐘驅動計算方法,可以充分利用CPU和GPU并行計算資源,適用于模擬復雜度較高的大型神經網絡,但其存在大量無效計算、仿真精度受時間步長限制、側向抑制失效的情況?;谑录寗拥腟NN模擬器更新的神經元狀態次數較少,可以高精度地處理脈沖信息,具有較高的運算速度,適合時空稀疏的神經網絡[62]。在選擇SNN軟件模擬器計算方法時,可以主要考慮神經網絡架構復雜度、硬件資源支持、仿真需求和目標等因素。

目前,主流的SNN軟件模擬器包括NEURON、NEST、Nengo、BindsNET、NeuCube、CARLsim、Brain 2等,如表1所示。① NEURON是用來模擬單個神經元或者神經元網絡的仿真軟件,為神經元網絡中實現電信號和化學信號的生物學模型提供了強大且靈活的環境[63]。在數字模擬時,用戶只需考慮神經元的幾何形狀參數、生物物理參數以及神經元之間的連接關系等信息,不需要考慮底層的數值求解方法,這有助于用戶能夠更專注于思考科學問題本身而不是其背后的數學模型和數值分析處理,因此成為國際上最受歡迎的神經建模工具之一。此平臺支持C、C++、Fortran、Python等多種編程語言,可滿足用戶不同的編程需求。② NEST是專為仿真大型異構神經網絡而設計的軟件[64],不僅可以模擬哺乳動物的視覺 / 聽覺皮層信息處理的SNN模型,還可以模擬層狀皮質網絡、平衡隨機網絡、可塑性等動力學模型。NEST可以支持集成式MPI、OpenMP通信協議,通過分布式計算顯著提高仿真速度。③ Nengo是一個以圖形和腳本為基礎的大型神經系統仿真軟件,其神經網絡模型能夠高度模擬人的大腦思維方式[65],具有高度的擴展性和靈活性;用戶可以自定義神經元類型和學習規則,構建和運行深度神經網絡,并可在不同的神經形態硬件上模擬模型。④ BindsNET主要利用PyTorch進行矩陣計算來模擬SNN,可直接依靠自動梯度求導機制對SNN進行訓練和學習[66]。⑤ NeuCube可支持基于頻率編碼的SNN模型,可在GPU進行加速計算,支持與Matlab和Java的交互;但NeuCube不是開源項目,在應用范圍和可用性方面受到一定限制[67]。⑥ CARLsim是一個基于GPU加速的大規模脈沖神經網絡仿真系統,可以在通用的X86 CPU和標準GPU上模擬基于Izhikevich模型構建的SNN[68]。⑦ Brain 2是用于模擬SNN的開源仿真軟件,其設計方式易于學習和使用,非常靈活且易于擴展[69];可以支持多種類型的神經元模型(如H-H模型、LIF模型),可針對存在不同類型神經元的大規模SNN進行仿真模擬。Brain 2使用代碼生成技術,可以自動將用戶定義模型轉換為可執行的低級別C++代碼,不需要用戶操作即可編譯和運行。

表1 主流的SNN軟件模擬器

(二)硬件實現

脈沖神經形態硬件的設計方式主要包括三類:模擬電路、全數字電路和數?;旌想娐?。模擬電路可以使用物理過程描述脈沖神經元動態性能,實值物理變量擁有幾乎無限的精度,能夠以低廉的成本完成對SNN神經元狀態的連續性更新[70,71]。由于模擬電路抗干擾能力較弱、保密性較差,導致路由網絡部分的跨核和跨芯片的長程數據傳輸難以精確完成。為克服此缺陷,研究者采用數字電路技術重新設計路由網路,而計算核仍主要采用模擬電路設計方式,總體呈現數?;旌系募軜嬏攸c。表2對基于數?;旌想娐返纳窠浶螒B芯片進行了總結。① BrainScaleS芯片是數模神經網絡芯片的典型代表之一,其核心是基于180 nm 互補金屬氧化物半導體(CMOS)工藝設計的高輸入計數模擬神經網絡(HICANN)芯片,具有良好的生物解釋性和可配置性,可以實現比生物大腦快1000~100 000倍的運行速度[72]。該芯片單個晶圓片中有352個芯片,每個芯片內部含有512個LIF神經元,共計有131 072條連接突觸,系統功耗約為1 kW。② Neurogrid芯片是基于硅晶體管亞閾值狀態的CMOS電流模電路研發的神經形態芯片。該芯片包含16個神經網絡計算核,每個計算核內部擁有256 256個神經元,可以實時模擬百萬級數量的神經元和60億突觸連接,支持仿真H-H等復雜神經元模型,每個芯片尺寸為12×14 mm2,系統總功耗為3.1 W[73]。③ ROLLS芯片采用180 nm一層多晶硅6層金屬(1P6M)CMOS工藝制造,擁有256個神經元和12.8萬個突觸連接,面積為51.44 mm2,在典型應用下的功耗僅為4 mW[74]。該芯片專門用于研究仿生突觸學習機制,可支持實現SNN在線實時學習。④ DYNAPs芯片連接采用二維網絡路由拓撲,芯片內計算核之間采用樹形結構路由拓撲,這種路由結構融合了網絡拓撲的低帶寬需求和樹形拓撲的低延遲優勢[75]。該芯片有4個計算核,單核包含256個神經元,可以通過配置參數廣泛支持基于事件驅動的神經網絡架構。

表2 基于數?;旌想娐返纳窠浶螒B芯片

除晶體管外,還有一種基于新型納米憶阻器件來模擬電特性的混合電路。憶阻器是一種兩端納米電子器件,其主要特點是能夠保持并根據經過的電荷量改變電導狀態[76],被視為一種模擬生物突觸的理想工具。在SNN中,憶阻器不僅能夠模擬突觸權重,還可以根據輸入的脈沖信號動態調整這些權重。這種調整機制模擬了生物突觸的長時程可塑性,如LTP和LTD。憶阻器的引入為SNN提供了一種更緊湊、高能效的計算模式。憶阻器的高密度特性可實現存算一體化,使矩陣與向量的乘法運算更為高效,提高了SNN的計算速度和能效。然而,憶阻器在SNN中的應用還面臨一些挑戰,如器件的穩定性、漏電問題以及與其他電子組件的集成問題[77,78]。盡管如此,許多研究團隊正在努力克服這些限制,使憶阻器成為神經形態計算的核心組件儲備。

數字電路設計方式是用比特來表示脈沖神經元所有狀態變量,這意味著狀態變量的精度取決于用于表示狀態變量的比特數。狀態變量的精度對于基本操作的耗能和存儲內存要求具有重要影響。與模擬電路相比,數字電路可以有效控制神經元狀態變量的精度,并且能夠在最先進的芯片制造工藝上實現[79],如FPGA和專用集成電路等芯片工藝。表3對基于數字電路的神經形態芯片進行了總結。① TrueNorth芯片是由國際商業機器公司(IBM)基于28 nm高級低功耗(LPP)CMOS工藝制造的全數字可伸縮神經形態芯片。該芯片使用了4096個神經突觸核心和54億個晶體管,產生的效果相當于100萬個神經元和2.56億個突觸,運行期間的功率僅為70 mW;具有很好的擴展性,能夠通過外部連接組成更為復雜的神經網絡系統,在圖像處理、語音識別、事件預測等方面展現出卓越性能[50]。② SpiNNaker是可以支持實時仿真大規模SNN的全數字電路神經形態計算平臺,每個芯片集成了18個同構ARM968處理器核和128 MB的片外直接內存訪問(DMA)控制器,在運行頻率為180 MHz時的功耗約為1 W,尺寸面積為102 mm2。該芯片可仿真近1000個神經元,支持多種神經元動力學模型,包括H-H模型、LIF模型和Izhikevich模型等,具有高度的編程靈活性[80]。③ Loihi是英特爾公司(Intel)推出的在線學習神經形態芯片,具有樹突計算、層次化鏈接、突觸延遲、發放閾值自適應、核對核多播、可塑性機制支持等特性[81]。Loihi 1芯片采用了Intel 14 nm FinFET工藝制造,核心面積為60 mm2,有128個神經形態核心和3個X86處理器核心;其中,單核最多包含1024個神經元和16 MB突觸容量,擁有12.8萬個神經元和1.28億個突觸,每個神經元可以有24個變量狀態。Loihi 2是Intel第一個采用極紫外光刻(EUV)工藝節點Intel 4 制造的芯片,核心面積降至31 mm2,集成了128個神經形態核心和6個低功耗的X86處理器核心;得益于制造工藝的大幅提升,神經元數量提升至100萬個,突觸數量略微降至1.2億個。Loihi 2可以根據神經元模型要求,最高分配4096個變量狀態,其處理速度是Loihi 1的10倍。④ TianJic是清華大學研發的世界首款異構融合類腦計算芯片,采用極易擴展的2D-mesh眾核互聯結構[82]。初代芯片基于聯華電子公司(UMC) 28 nm制程工藝制造,單核包含256個神經元,尺寸面積約為0.078 mm2,在14.44 mm2硅片上集成的突觸數量超1000萬個,在支持SNN學習訓練的同時,也能夠為ANN運算提供算力(峰值為1.3 TOPS)。第二代芯片具有更好的靈活性和擴展性,密度提升約20%,速度至少提高了10倍?;赥ianJic芯片構建的可擴展通用人工智能開發演示平臺,展示了無人駕駛自行車的車身平衡控制、目標實時跟蹤、語音命令識別、自動避障和自主決策等功能。⑤ Darwin是浙江大學與杭州電子科技大學基于硅材料打造的SNN類腦芯片,初代芯片內含500萬個晶體管,包含2048個神經元和超過400萬個神經突觸,尺寸面積為25 mm2。Darwin 2基于55 nm CMOS工藝技術制造,單芯片由576個內核組成,每個內核支持256個神經元、神經突觸超過1000萬個?;?92個Darwin 2芯片構建的國內首臺類腦計算機,支持1.2億個脈沖神經元和近1000億個突觸,相當于老鼠大腦神經元的數量,典型運行功耗為350~500 W。在強大的軟件和硬件支持下,該計算機實現了對異構計算資源的統一調度和管理,為大規模SNN計算任務提供了操作和服務平臺,已用于目標檢測、路徑規劃等智能任務處理。

表3 基于數字電路的神經形態芯片

四、脈沖神經網絡應用研究進展

SNN在計算能力、模型泛化和硬件實現等方面持續提升,已在計算機視覺、自然語言處理和推理決策等訓練任務中取得了顯著進展。在計算機視覺領域,SNN在目標檢測、動作識別等方向擁有廣闊的應用前景,其能量效率和計算性能得到顯著提升。在自然語言處理方面,SNN在語義認知、語音識別等任務中展現出顯著的發展潛力,通過模擬神經元脈沖活動提供了更接近生物神經系統的信息處理方式。在推理決策領域,SNN成功應用于資源分配、知識表示與生成等任務,利用神經脈沖的時空特性實現實時學習與決策。SNN在這些任務中的研究進展為人工智能領域帶來了新的突破與機遇,預示著未來SNN將在更多行業領域發揮關鍵作用。

(一)計算機視覺任務

在計算機視覺任務中,SNN通常面臨處理高維、連續像素數據的挑戰,這需要更高效的技術來編碼和解碼脈沖序列。近年來,研究人員通過改進脈沖神經元和脈沖編碼技術,顯著提高了SNN在圖像分類、目標檢測等任務中的性能。SNN在與時間相關的計算機視覺任務中表現出了巨大潛力,如動作識別和光流估計等,為未來計算機視覺研究帶來新的契機。

1. 圖像分類

近年來,SNN在圖像分類任務方面的研究進展迅速,取得了一些令人矚目的成果。Xu等[45]提出了結合CNN和SNN學習能力的深度CovDenseSNN新型混合框架;該框架使用無監督STDP學習規則更新模型框架參數,適用于神經形態硬件,可有效處理現代圖像分類等任務。Qu等[47]開發了橫向抑制和穩態抑制兩種硬件友好型方法,減少了抑制連接數量,降低了硬件成本。研究學者采用STDP學習規則調整輸入層和學習層的突觸權值,在手寫數字圖片數據集MNIST上模擬數字識別任務;該方法在保持最先進性能的同時,使學習效率提高了30%~50%。Tavanaei等[49]提出了一種訓練多層脈沖卷積神經網絡的方法,訓練過程包括兩部分:首先基于STDP學習規則進行無監督特征提取,然后通過近似梯度下降進行脈沖模式分類。實驗表明,該方法在MNIST數據集上對手寫體數字分類任務具有較好的效果。Lee等[38]將脈沖神經元的膜電位作為可微變量,認定脈沖處的不連續為噪聲,使SNN下的誤差反向傳播機制遵循與傳統深度學習網絡相同的原理。該技術方案可以更精確地捕獲脈沖統計數據;通過在MNIST測試集上評估發現,相比傳統CNN,可以用較少的計算操作獲得更高的精度。Wu等[39]結合逐層空間域和時間相關時態域,提出了一種用于訓練高性能SNN的時空反向傳播算法(STBP),解決了SNN中脈沖信息不可微的問題。通過在靜態MNIST、動態N-MNIST等數據集進行評估,結果表明,此算法與現有先進的SNN算法相比精度更高。Rueckauer等[51]提出了一種可以允許大部分CNN向SNN轉化的方案,并在MNIST、CIFAR-10以及更具挑戰性的ImageNet數據集上進行了測試評估,發現在實現同樣準確率時的算力能耗下降了1/2。Sengupta等[29]提出了一種ANN向深層SNN轉換的方法,擺脫了殘差網絡架構和牛津大學視覺幾何研究組提出的VGG模型的限制,在CIFAR-10、ImageNet等復雜數據集上展示了較高的準確率。Wang等[52]針對現有ANN向SNN轉化方法存在占用大量存儲空間的問題,提出了一種有效的脈沖神經元權重與閾值平衡轉化技術方法,可獲得具有二進制權重的SNN,顯著降低了內存存儲,并在MNIST數據集上實現了較高的識別精度。

2. 目標檢測

SNN具有高度并行的信息處理能力、極低的功耗特性,已在多個目標檢測基準數據集上展示出優越的性能,能夠處理各種復雜場景的實時目標檢測任務。Kim等[83]提出了一種基于SNN的目標檢測模型,并在目標檢測數據集(PASCAL VOC)和微軟標注圖像識別數據集(MS COCO)上進行測試,發現與應用深度神經網絡進行目標檢測的效果相當。Kim等[84]提出了一種閾值電壓平衡方法,從準確性、延遲和突觸操作數量三方面提高了基于SNN目標檢測模型的性能。此方法不僅實現了快速的收斂速度,而且在突觸操作數量顯著減少的情況下實現了最先進的目標檢測精度。Chakraborty等[85]提出了一種基于脈沖混合神經網絡的高效魯棒目標檢測方法。與基于深度神經網絡的目標檢測方法相比,此方法表現出更好的精度且更加節能。Jiang等[86]設計了一種基于霍夫變換的SNN,并利用神經形態視覺傳感器提供的異步事件流進行管道物體檢測和跟蹤;此外還進一步驗證了基于SNN的目標檢測和自主跟蹤方法的有效性、準確性,并在CPU和GPU上進行了性能比較。結果表明,SNN模型在GPU上的性能最好,在CPU上的精度最高。Vemuru[87]提出了一種基于SNN的邊緣檢測器設計方式,發現其在低曝光時間生成8位圖像的目標檢測方面具有優勢,檢測時間約為幾毫秒?;诖税l現,可以嘗試將可見光譜下工作的事件相機(如硅視網膜)與神經形態模擬器相結合,開發出在弱光條件下檢測目標物體的新型人工智能應用。Demertzis等[88]基于進化脈沖神經網絡開發了一種半監督異常檢測系統,能夠快速地檢測異常網絡攻擊行為。

3. 動作識別

SNN在動作識別任務中也表現出強大的潛力,可以有效處理時間序列數據,已被成功應用于復雜的動作識別任務,如手勢識別和運動信息感知等。Cheng等[89]提出了一種脈沖發射時間搜索算法,顯著提高了SNN的前向傳播速率。此外,利用表面肌電信號,將所提出的SNN用于手勢識別,識別準確率達到97.4%。Tsang等[90]提出了一種利用調頻連續波雷達進行手勢識別的SNN方法,并在Soli和Dop-NET兩個公開數據集中進行了測試驗證,準確率達到98%以上。Safa等[91]提出了一種用于雷達手勢識別的4-b權重脈沖神經網絡,在4個處理時間步長內就實現了93%的準確率。Xing等[92]提出了一種脈沖卷積遞歸神經網絡,利用卷積運算和遞歸連通性來維護基于事件序列數據的時空關系,可以較好地解決基于神經形態視覺數據的識別問題,如人類手勢識別。該網絡利用脈沖層誤差重新分配訓練機制(SLAYER),并在DVS手勢數據集上進行驗證,對10類手勢的識別準確率均達到了96.59%。Liu等[93]提出了一種基于事件的動作識別脈沖神經網絡,可提取從事件到局部再到全局感知的多層次運動信息,進行動作識別。經過大量的實驗測試,證明了此SNN架構在動作識別任務中的有效性。Banerjee等[94]提出了一種學習動作信息的空間和時間特征的脈沖卷積神經網絡,在測試數據集中實現了85%的準確率,與經典技術獲得的效果相當。該方法可部署到連接雷達的神經形態邊緣設備上,以減少推理延遲。

4. 光流估計

SNN在光流估計任務中展現了重要的研究價值。SNN利用其獨特的信息編碼機制,能夠對高速移動的物體進行精確的運動追蹤。近期研究已經證明,SNN在光流估計的準確性和魯棒性上均有很好的表現。Lee等[95]提出了一種SNN和ANN深度混合的神經網絡架構Spike-FlowNet,可在不犧牲性能的情況下有效地估計稀疏事件相機輸出的光流。該網絡在MVSEC數據集上進行了光流預測能力和計算效率的評估,結果表明,Spike-FlowNet在光流預測能力方面優于成熟的ANN。Paredes-Valle?等[96]提出了一種可以進行分層特征提取的SNN架構,實現了局部和全局的運動感知。Cuadrado等[97]提出了一種能夠進行密集光流估計的SNN,并使用該網絡在事件傳感器數據集DSEC上訓練以及估計駕駛場景的光流。Zhang等[98]提出了一種端到端的SNN來預測事件相機離散時空數據的光流,并與現有方法在公共數據集上進行了實驗對比,結果表明,在光流估計精度方面與現有最好的方法效果相當,而功耗比現有算法節省99%以上。Chaney等[99]提出了一種可用于密集光流估計的完全自監督卷積SNN,并在MVSEC數據集上進行測試驗證,結果表明,其在功耗方面表現較為優秀。

表4對典型計算機視覺任務算法在公開數據集上的評測結果進行了總結。

表4 典型計算機視覺任務算法在公開數據集上的評測結果

(二)自然語言處理任務

在自然語言處理任務中,更加有效地表示和處理語言的序列性及上下文信息是當前面臨的技術難題。SNN具備模擬生物神經元的優勢和獨特的信息編碼能力,可以處理大規模的語義數據并進行深層次的語義理解。近期,SNN在文本分類、語音識別和情感分析等自然語言處理任務中的應用均取得了一定的進展。表5對典型自然語言處理任務算法在公開數據集上的評測結果進行了總結。

表5 典型自然語言處理任務算法在公開數據集上的評測結果

在文本分類任務方面,Lyu等[100]提出了一種“轉換+微調”的兩步法來訓練SNN,并在英語、漢語等多個數據集上進行文本分類任務測試,結果表明,該網絡可以以更少的能量消耗獲得與DNN相當的效果,同時在對抗性攻擊方面有更強的魯棒性。Zhu等[101]提出了一種基于SNN的生成式語言模型“SpikeGPT”,成功將SNN與Transformer架構結合,在相關測試集上實現了與ANN相當的性能,同時能耗顯著降低。Mo等[102]提出了一個新型脈沖時空信道概念,在信息傳遞方向引入時間維度,擴大神經元之間的連接;同時結合替代梯度下降算法,設計了一種SNN訓練算法,具有更快的收斂速度和更高的文本分類識別精度。

在語音識別任務方面,Wu等[103]基于SNN構建了一個大詞匯量自動語音識別模型,在較低能耗下可以準確地對每個音頻幀進行分類,能夠高質量地完成語音識別任務。Li等[104]提出了一種基于脈沖序列的語音識別和關鍵詞發現系統,具有較好的噪聲魯棒性和較快的計算速度。Zhang等[105]提出了一個基于SNN的語音識別框架,其中連續幀的頻譜信息使用閾值編碼進行編碼,利用一種新型膜電位驅動的聚合標簽算法進行學習訓練,有效提高了分類精度。

在情感分析任務方面,Solairaj等[106]提出了一種基于SNN的在線產品評論情感分析系統,并在亞馬遜評論數據庫進行測評,相比現有的技術方法,其準確率有較大提升。Diehl等[107]提出了一種基于SNN的文本情感分析方法,并在神經形態硬件TrueNorth上實現。該方法在情感分析數據集上進行了測試驗證,表現出與原始DNN相當的效果。

(三)推理決策任務

SNN在智能推理與決策任務方面展現出了較好的應用價值。SNN具備生物學動態仿真特性和低延遲等優勢,在處理時空信息上表現出色,已在因果推理、智能決策任務中發揮重要作用,如音樂生成、資源分配、路徑規劃等。但SNN通常依賴于時間序列的輸入,因此在處理需要快速決策的復雜任務時可能面臨延遲問題。隨著SNN學習算法的不斷發展和網絡結構的持續優化,SNN的推理速度和準確性將進一步提升,為實現自適應、更高效的智能系統奠定基礎。表6對典型推理決策任務算法進行了總結。

表6 典型推理決策任務算法總結

Fang等[114]提出了一種基于STDP學習規則和群編碼機制的SNN,在因果圖任務中展示了其在因果推理方面的可能性。Fang等[115]基于群編碼、STDP學習規則和獎勵機制,提出了一種用于知識表示與推理的圖脈沖神經網絡。通過實驗研究發現,該網絡可以很好地完成傳遞與非傳遞關系推理、提取與生成知識等任務,不僅有更好的可解釋性和生物可信性,而且達到了與圖卷積人工神經網絡相當的精度,并具有更快的收斂速度。Zeng等[116]提出了基于SNN的腦啟發認知智能平臺BrainCog,支持各種大腦啟發的認知功能,包括知識表示、因果推理、智能決策等?;谕挥|可塑性和信息編碼機制,該平臺可以捕捉音樂的時序動態,利用SNN處理時間序列數據的優勢,仿真生物大腦處理音樂創作的復雜性,完成音樂生成、符號序列生成、演繹推理和歸納推理等任務。Venkataiah等[117]提出了一種用于軟件項目開發過程中資源分配的SNN,能夠更準確地估計軟件開發過程的成本,實現資源優化配置,提高項目管理效率。Steffen等[123]提出了一種可在三維地圖上進行路徑規劃的SNN,能夠對周圍環境實現快速模擬并確定最優行進路徑。SNN的并行處理能力和時序決策特性使其能實時響應環境的變化,動態調整路徑規劃策略,以適應不斷變化的約束條件和優化目標,有效規避障礙和規劃行進路線,提升路徑規劃的靈活性和效率。

(四)行業應用場景

當前,世界正從數字化向智能化轉型,作為核心驅動力的人工智能算法模型也正在不斷升級進化。近10年,以深度學習為代表的ANN在自然語言處理、圖像識別和智能決策等方面取得了豐碩成果,可以匹敵人腦甚至超越人腦。相較于深度學習神經網絡,SNN融合了受生物啟發、高效的神經信息處理機制,具有更穩定且魯棒的信息表征能力、更高效節能的計算優勢,在一定程度上解決了傳統ANN難以處理的時空數據問題和高能耗問題。隨著SNN等類腦技術和產業的成熟,其應用場景將覆蓋醫療健康、工業檢測、民生消費、智能交通、安防聯控和智慧金融等行業。

1. 醫療健康

人工智能技術已成為醫療健康行業信息化和智能化建設的重要支撐,推動著行業的不斷發展。然而,醫療健康行業仍面臨實時健康監測高功耗、大量生物信號數據精準模式不易識別等技術難題。SNN等類腦智能技術和高端集成電路的不斷進步,推動神經形態計算市場的快速發展,其在醫療健康領域的應用也在不斷擴大和深化,為現有技術難題提供了有力的解決方案。目前,已有一些創新技術公司著手設計針對神經形態計算的硬件解決方案,通過可穿戴設備監測心電、眼電、肌電、呼吸等生理信號,借助分類器模型對人不同的狀態進行判別分析,以達到預期的分類識別效果[124~128]。該解決方案在不干涉人正常生活的情況下,能夠對人體自然狀態下的精神狀態實現低功率邊緣感測處理和異常瞬時監測,為生命安全提供有效保障。此外,神經形態計算在神經預測與新興療法領域進行了探索應用。研究人員將監測到的個體大腦信息與其他數據融合并進行分析,實現個體化的神經預測,主要包括智力測試、腦疾病診斷、認知障礙分析以及犯罪傾向預測等[129~132]。針對抑郁癥患者,醫生可通過對眼窩前額皮質進行開環的神經刺激,調節與抑郁相關的大腦子網,從而緩解中度和重度抑郁病癥。

2. 工業檢測

自工業時代以來,制造商一直在使用不同的技術來監控裝配線上的工藝和產品質量。目前的科技水平已經能夠在大部分生產流程中實現缺陷和異常檢測自動化,但傳統視覺檢測的最大局限性是反應相對緩慢,在對高速移動物體質量檢測方面存在不足。相較于傳統基于幀的視覺傳感器,神經形態視覺傳感器不受固定幀速率的限制,可以提供高精度的時間數據,且對絕對照明不敏感,可以對運動物體的相對變化快速作出反應。因此,神經形態視覺傳感器在邊緣檢測和動態視覺識別方面具有明顯優勢。Belbachir等[133]在研究中使用的視覺感知系統可以有效處理工業自動化視覺任務,如對運動物體計件、分類和表面檢測。Ni等[134]利用神經形態視覺傳感器對工業微型機床高速運動的機械手進行跟蹤,憑借其超過4000 Hz的刷新頻率,成功實現了微米級物體拾取放置任務。神經形態視覺感知系統將智能自動化制造行業的生產水平提升到一個更高的層次,有效提高了質量控制與質量保證水平。

3. 民生消費

智能語音作為智能時代人機交互的關鍵接口,在家居、辦公、玩具、支付等民生消費場景驅動著行業快速發展,不斷實現技術突破。目前,語音控制類的智能硬件產品在很多場景下存在語音交互體驗不足、遠距離語音交互存在障礙、語音識別率需進一步提升等問題,特別是針對漢語普通話、方言語音區別特征,如清音、濁音、鼻音、非鼻音等,在識別解碼過程中模型匹配準確率較低。近年來,SNN在語音識別方面取得了顯著的進步[103~105,135,136],有效提高了處理復雜語音模式的能力,降低了語音識別誤差,尤其是在嘈雜環境下的表現較為優異。未來,基于SNN的低功耗語音識別和口令識別技術,將成為解決噪聲干擾問題和打破距離瓶頸的重要方法之一,并推動智能家居、智能辦公和智能玩具等場景人機語音交互提升至更高水平。

4. 智能交通

交通領域是人工智能技術應用較早的領域之一,尤其是在智能座艙和自動駕駛方面,不少汽車公司陸續推出解決方案,讓司乘人員享受智能出行帶來的便捷。智能座艙是智能汽車上與司乘人員交互最密切的部分,通過神經形態軟硬件框架可提升自然語義理解和視覺感知能力,主動感知人的需求,實現人與車的全空間交互。當前的自動駕駛解決方案多基于深度學習算法進行設計并已取得一定成效,但仍存在一定的局限性,如自主學習、自適應能力弱,高度依賴于模型構建;計算資源消耗比較大,CPU、GPU消耗量大;邏輯分析和推理能力不足,僅具備感知識別能力。類腦智能技術可為自動駕駛領域帶來重大突破,一些研究學者已開展相關研究。Guo等[137]使用新型動態視覺傳感器CeleX的脈沖信號重構插幀來提高圖像序列幀率,并將其運用于駕駛員的疲勞檢測系統;Li等[138]將基于事件驅動和基于幀的攝像機結合,運用于自動駕駛的目標聯合檢測,在極端光照條件和高速運動場景下均表現出強勁的性能??梢灶A見,未來可以將傳統人工智能在搜索、計算、推演、學習能力上的優勢與類腦智能技術在思考、創新、應變能力上的優勢進行有機的結合,使自動駕駛邁向更高階的全場景智能駕駛。

5. 安防聯控

安防行業是人工智能技術落地比較成熟的應用領域,其先進性和未來的可發展性毋庸置疑。目前,在安防領域廣泛使用的機器視覺系統需要先進行信息探測然后再對其處理,所使用的圖像傳感器在探測目標圖像的同時會產生大量冗余信息。這些冗余信息通過有限的帶寬傳輸至計算機或者圖像處理器進行處理和分析,從而導致較大的時間延遲和較高的功耗。因此,構建具備同步信息探測和處理功能的類腦視覺傳感器對于智能安防領域的發展至關重要。一些研究人員和類腦智能公司嘗試開發基于事件驅動的神經形態處理器,并將其應用在圖像視覺傳感器中。這種處理器具有低功耗、低延遲特性,支持視覺傳感器等物聯網設備永久在線,可以對監測區出現的人員、車輛等圖像視覺數據實時監控和處理,實現異常事件的實時報警提示[139~141]。隨著類腦智能、物聯網、云計算技術與超高清、熱成像、全景監控等傳統安防技術的深度融合,安防聯控行業智能化將向更高水平躍升。

6. 智慧金融

隨著大數據和人工智能等技術的發展,科技進步對傳統的投資組合管理方法提出了挑戰。特別是均值 - 方差優化法,在估算資產回報分布和考慮風險收益時可能存在偏差,且未充分考慮投資者動態資金局限和交易成本。此外,現代金融數據具有高維度、高噪聲、非線性等特點,深度神經網絡模型在一定程度上解決了上述問題,但存在能耗高、“黑箱”特性等,難以準確把握數據中的非平穩動態和復雜的交互作用,對模型的因果關系及經濟學原理解釋仍十分有限。這也影響了人工智能神經網絡在經濟、金融等社會科學應用中的推廣。類腦計算模擬人腦處理信息的方式,具備更強的抽象與歸納、推理與決策能力,為資產管理提供了新的思路,應用前景廣闊。Saeidi[142]等提出了一種神經形態計算框架,將SNN的低功耗、高魯棒性能力與深度神經網絡的學習能力相結合,有效提升了模型學習過程中重要信息的傳遞和訓練能力。該框架在神經形態芯片Loihi上部署實現,并在加密貨幣市場上進行了測試驗證,是一種節能的投資組合優化解決方案。Ho等[143]提出了一種基于類腦技術研發的日內金融交易系統,其預測模型模仿人腦海馬區的突觸運行機制和信息處理方式,具有更強的魯棒性和自適應能力。該系統將預測功能引入到平滑異同移動平均線(MACD)趨勢信號計算中,緩解了MACD指標的滯后性。通過對標準普爾500指數進行實驗測試后發現,該系統具有高度準確的預測能力,能夠及時識別交易機會,可為投資者帶來更為豐厚的收益回報。

類腦計算還可用于金融市場風險管理。投資者運用類腦計算技術,可以更準確地分析金融市場的波動情況,有助于識別和預測金融市場風險,在優化交易策略的同時降低風險。Mateńczuk等[144]將SNN應用于金融時間序列的預測分析中,分析了交易型開放式指數證券投資基金的風險收益。Gao等[145]使用基于STDP學習規則的SNN無監督學習算法預測了金融時間序列的價格峰值,并提出了3種高頻交易策略對原油和黃金期貨價格的日內高頻數據進行了回溯測試。實驗結果表明,該方法可以較好地識別隱藏在歷史價格時間序列中的信息,進而預測價格峰值,在持續盈利的同時有效控制市場風險。

總體來看,SNN在計算機視覺領域的成熟度相對較高,在醫療健康、工業檢測、智能駕駛、智能安防等領域已有應用,但在金融、社會科學領域的應用仍處于起步探索階段。隨著類腦復雜系統、類腦控制等理論與方法的持續研究和突破,SNN將廣泛應用于各行業。

五、脈沖神經網絡技術發展及前瞻

我國在以SNN技術為核心的類腦計算領域布局較為滯后,與發達國家相比,在基礎研究、技術應用和產業生態等方面均存在一定差距,面臨技術積淀不夠、人才儲備不足和生態活力欠缺等挑戰。為突破這一局面,推動SNN、深度強化學習等類腦技術的創新發展,加快與國際先進水平實現接軌,本文從技術攻關、實際應用和生態建設三方面提出了推動SNN技術發展的建議。

一是加強關鍵核心技術攻關。持續加強腦科學與類腦基礎研究,在腦工作原理和運作機理取得突破的基礎上,加強原創性、共性技術及設備攻關,加大對高精度生物神經系統仿真模擬平臺、類腦計算學習機制、SNN算法模型等研究的投入力度。加強多學科交叉合作,鼓勵腦科學與心理認知科學、電子信息學、量子信息科學、計算機科學、人體工程學等學科融合,支持建立多學科協同的研究模式,促進類腦計算重大理論創新,實現關鍵核心技術突破。

二是推動技術成果轉化應用。具有原創技術的“硬科技”企業,在發展初期通常面臨市場基礎較弱、市場轉化難等問題。為此,建議推動產業鏈技術鏈融合貫通,強化競爭優勢,通過先期技術產品在市場上的價值實現,支持后續類腦技術的深度開發,加快推動科技成果轉化應用形成良性循環。聚合企業、高校和科研院所的優勢研究力量,倡導對類腦計算科研成果進行“價值發掘 - 價值培育 - 價值實現”的全生命周期管理,加強對前沿科技成果的儲備,促進“產學研”合作對接,支持創新技術成果盡快從實驗室走向市場。

三是持續優化產業生態格局。建立健全多層次、跨領域的合作機制,推動技術、資本、產業及政府等資源的高效整合,在政策、場地、資金方面支持類腦計算產業發展。逐步完善類腦計算產業標準體系,前瞻布局SNN、神經形態芯片等技術標準研究,充分發揮產業標準對推動技術進步、服務企業發展、加強行業指導、引領產業升級的先導性作用。推動打造跨學科交叉、國際化培養、“產學研”結合的新型人才培養模式,以科學研究為牽引,構建類腦計算綜合性人才培養機制,為類腦計算產業發展提供堅實的智力支持。

值得指出的是,當前的SNN研究雖然已取得了顯著進展,但仍有諸多問題需要深入探討和著力解決。例如,需要研究并構建具備生物可信度、多模態協作和多時空尺度聯合表征的高效脈沖編碼理論與模型;探索多突觸可塑性的協調機制和生物神經網絡的全局可塑性機制,建立高效的深度SNN學習算法,實現多認知任務協同背景下的類腦智能學習、推理和決策;研究在小樣本和非完全信息環境下的高效自主SNN學習算法,提高在不同任務中的高效、魯棒決策能力;針對大規模深層SNN,研究高性能的學習算法,并探索其在大規模復雜實際場景中的應用。

可以預見,SNN是下一代人工智能的重點發展方向之一,在類腦計算研究中處于核心地位。生物學、認知科學、信息學等學科的交叉與融合,有助于持續完善類腦計算中的信息編碼、處理、學習與推理等理論,提升SNN響應外部環境變化的實時性和自適應性,降低計算和通信的能耗,促進大規模SNN新模型的構建和部署,支持實現高可解釋性、強泛化能力的人工智能,從而拓展人工智能的更廣闊應用前景。

利益沖突聲明

本文作者在此聲明彼此之間不存在任何利益沖突或財務沖突。

Received date:September 18, 2023;Revised date:November 8, 2023

Corresponding author:Chai Hongfeng is a professor of the Institute of Financial Technology, Fudan University, and a member of the Chinese Academy of Engineering. His major research field is financial information engineering management. E-mail: chaihongfeng@cae.cn

Funding project:National Key R&D Program of China (2021YFC3300600);Chinese Academy of Engineering project “Strategic Research on Financial Risk Monitoring and Early Warning System under the Background of Digital Transformation” (2023-XY-43); National Natural Science Fund project (72201161); Joint Research Project of Yangtze River Delta Community of Sci-tech Innovation (2022CSJGG0800, 2021-YF09-00114-GX, PO3522083587, PO3522083675, HP2300490)

猜你喜歡
類腦神經元脈沖
他們使阿秒光脈沖成為可能
脈沖離散Ginzburg-Landau方程組的統計解及其極限行為
《從光子到神經元》書評
神經元規模最大類腦計算機問世
基于多尺度網格細胞模型的無人機類腦矢量導航方法
躍動的神經元——波蘭Brain Embassy聯合辦公
黃芩苷脈沖片的制備
中國成立“類腦國家實驗室”“借鑒人腦”攻關人工智能
基于二次型單神經元PID的MPPT控制
毫米波導引頭預定回路改進單神經元控制
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合