版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系我們

比人腦快20000%,全球最大神經(jīng)擬態(tài)系統(tǒng)誕生

中國科技新聞網(wǎng)
由中國科技新聞學(xué)會主辦的對外宣傳科技信息類網(wǎng)站
收藏

人工智能(AI)領(lǐng)域迎來重大事件。

北京時間4月18日凌晨,美國芯片巨頭英特爾(Intel)宣布,其打造出全球最大的神經(jīng)擬態(tài)系統(tǒng)——Hala Point,旨在支持未來類腦 AI 研究,以及解決 AI 目前在效率和可持續(xù)性等方面的挑戰(zhàn)。

Hala Point內(nèi)置1152個、基于Intel 4(7nm)制程的英特爾Loihi 2處理器,支持多達(dá)11.5億個神經(jīng)元和1280億個突觸,每秒可處理超過380萬億個8位突觸和超過 240 萬億個神經(jīng)元操作,相關(guān)系統(tǒng)最初部署在美國桑迪亞國家實驗室。應(yīng)用于仿生尖峰神經(jīng)網(wǎng)絡(luò)模型時,在運(yùn)行神經(jīng)元數(shù)量較低的情況下,Hala Point速度可比人腦快200倍(20000%)。

英特爾研究院神經(jīng)擬態(tài)計算實驗室總監(jiān)Mike Davies表示:“目前,AI模型的算力成本正在以不可持續(xù)的速度上升。行業(yè)需要能夠規(guī)模化的全新計算方法。為此,英特爾開發(fā)了Hala Point,將高效率的深度學(xué)習(xí)和新穎的類腦持續(xù)學(xué)習(xí)、優(yōu)化能力結(jié)合起來。我們希望使用Hala Point的研究能夠在大規(guī)模AI技術(shù)的效率和適應(yīng)性上取得突破。”

事實上,所謂神經(jīng)擬態(tài)芯片,是一種模擬生物神經(jīng)元的芯片。

與普通芯片不同的是,神經(jīng)擬態(tài)芯片的計算任務(wù)是由許多小單元進(jìn)行的,單元之間通過類似生物神經(jīng)的尖峰信號相互通信,并通過尖峰調(diào)整其行為。

早在2018年,基于英特爾研究院的先進(jìn)技術(shù)研究,英特爾推出了首款神經(jīng)擬態(tài)芯片Loihi,采用14nm制程,可應(yīng)用于機(jī)器嗅覺等場景。

2021年,Loihi系列全面升級,英特爾發(fā)布了第二代神經(jīng)擬態(tài)芯片Loihi 2,采用英特爾第一個EUV工藝節(jié)點Intel 4,芯片等效于4nm,實際為7nm工藝。

Loihi 2共有128個神經(jīng)擬態(tài)核心,這128個內(nèi)核每一個都有192KB的靈活內(nèi)存,每個神經(jīng)元可以根據(jù)模型分配多達(dá)4096個狀態(tài),而之前的限制只有24個。

與普通的CPU和GPU不同,神經(jīng)擬態(tài)沒有外部內(nèi)存。每個神經(jīng)元都有一小部分內(nèi)存供其專用。主要作用是分配給不同神經(jīng)元輸入的權(quán)重、最近活動的緩存以及峰值發(fā)送到的所有其他神經(jīng)元的列表。Loihi 2可以根據(jù)用途選擇各種不同連接選項,這一點上有些類似于FPGA。

英特爾強(qiáng)調(diào),在執(zhí)行AI推理負(fù)載和處理優(yōu)化問題時,Loihi 2神經(jīng)擬態(tài)芯片系統(tǒng)的速度比常規(guī)CPU和GPU架構(gòu)快50倍,同時能耗降低100倍。

除了硬件產(chǎn)品外,英特爾還發(fā)布了用于Loihi芯片的軟件,一個名為Lava的新開發(fā)框架。該框架以及相關(guān)庫都用Python編寫,并在GitHub上開源,開發(fā)人員無需訪問硬件即可為Loihi開發(fā)程序。

如今,英特爾已經(jīng)將Loihi 2芯片用于機(jī)械臂、神經(jīng)擬態(tài)皮膚、機(jī)器嗅覺等場景。英特爾表示,Loihi 2應(yīng)用了眾多類腦計算原理,如異步(asynchronous)、基于事件的脈沖神經(jīng)網(wǎng)絡(luò)(SNNs)、存算一體,以及不斷變化的稀疏連接,以實現(xiàn)能效比和性能的數(shù)量級提升。神經(jīng)元之間能夠直接通信,而非通過內(nèi)存通信,因此能降低整體功耗。

英特爾Hala Point神經(jīng)擬態(tài)系統(tǒng)研究團(tuán)隊

而在新一輪 AI 技術(shù)引領(lǐng)下,4月17日,英特爾將這個神經(jīng)擬態(tài)芯片進(jìn)行“暴力組裝”,構(gòu)建了全球最大的神經(jīng)擬態(tài)系統(tǒng)Hala Point 。

具體來說,Hala Point系統(tǒng)由封裝在一個六機(jī)架的數(shù)據(jù)中心機(jī)箱中的1152個Loihi 2處理器(采用Intel 4制程節(jié)點)組成,大小相當(dāng)于一個微波爐。該系統(tǒng)支持分布在 140544 個神經(jīng)形態(tài)處理內(nèi)核上的多達(dá) 11.5 億個神經(jīng)元和 1280 億個突觸,最大功耗僅為 2600 瓦。Hala Point還包括 2300 多個嵌入式 x86 處理器,用于輔助計算。

Hala Point 將處理、內(nèi)存和通信通道集成在大規(guī)模并行結(jié)構(gòu)中,提供總共 16 PB/s 的內(nèi)存帶寬、3.5 PB/s 的內(nèi)核間通信帶寬和 5 TB/s 的帶寬(TB/s)的芯片間通信帶寬。該系統(tǒng)每秒可以處理超過 380 萬億個 8 位突觸和超過 240 萬億個神經(jīng)元操作。

在用于仿生脈沖神經(jīng)網(wǎng)絡(luò)模型時,Hala Point能夠以比人腦快20倍的實時速度運(yùn)行其全部11.5億個神經(jīng)元,在運(yùn)行神經(jīng)元數(shù)量較低的情況下,速度可比人腦快200倍。雖然Hala Point并非用于神經(jīng)科學(xué)建模,但其神經(jīng)元容量大致相當(dāng)于貓頭鷹的大腦或卷尾猴的大腦皮層。

早期研究結(jié)果表明,通過利用稀疏性高達(dá)10比1的稀疏連接(sparse connectivity)和事件驅(qū)動的活動,Hala Point運(yùn)行深度神經(jīng)網(wǎng)絡(luò)的能效比高達(dá)15 TOPS/W,同時無需對輸入數(shù)據(jù)進(jìn)行批處理。批處理是一種常用于GPU的優(yōu)化方法,會大幅增加實時數(shù)據(jù)(如來自攝像頭的視頻)處理的延遲。盡管仍處于研究階段,但未來的神經(jīng)擬態(tài)大語言模型將不再需要定期在不斷增長的數(shù)據(jù)集上再訓(xùn)練,從而節(jié)約數(shù)千兆瓦時的能源。

英特爾表示,Hala Point在其前身Pohoiki Springs的基礎(chǔ)上實現(xiàn)了大幅提升,基于神經(jīng)擬態(tài)計算技術(shù)提升了主流、常規(guī)深度學(xué)習(xí)模型的性能和效率,尤其是那些用于處理視頻、語音和無線通信等實時工作負(fù)載的模型。其架構(gòu)經(jīng)過改進(jìn),神經(jīng)元容量提高了10倍以上,性能提高了12倍。

目前,Hala Point是一個旨在改進(jìn)未來商用系統(tǒng)的研究原型。英特爾預(yù)計其研究將帶來實際技術(shù)突破,如讓大語言模型擁有從新數(shù)據(jù)中持續(xù)學(xué)習(xí)的能力,從而有望在AI廣泛部署的過程中,大幅降低訓(xùn)練能耗,提高可持續(xù)性。

英特爾透露,接下來,Hala Point系統(tǒng)將向桑迪亞國家實驗室交付,從而標(biāo)志著英特爾共享的大型神經(jīng)擬態(tài)研究系統(tǒng)的首次部署,進(jìn)一步推動神經(jīng)擬態(tài)計算應(yīng)用和類腦 AI 研究等。如今,英特爾神經(jīng)擬態(tài)研究社區(qū)(INRC)成員總數(shù)已超過200個。

不過,英特爾這套神經(jīng)擬態(tài)技術(shù)在深度學(xué)習(xí)領(lǐng)域仍面臨一定的質(zhì)疑。

Meta首席科學(xué)家、圖靈獎得主Yann LeCun曾在2019年的一次會議上駁斥了神經(jīng)擬態(tài)計算方法。他認(rèn)為,神經(jīng)形態(tài)方法沒有取得實際成果,像ResNet等深神經(jīng)網(wǎng)絡(luò)已經(jīng)在計算機(jī)視覺上取得了巨大的成功。

不過,IBM于2014年推出了TrueNorth芯片,盡管其運(yùn)行頻率只有幾kHz,但它所模擬大腦尖峰神經(jīng)網(wǎng)絡(luò)所需的計算資源,只傳統(tǒng)處理器0.0001%。Mike Davies曾表示,Loihi在某些特定工作負(fù)載上,可以比傳統(tǒng)處理器效率高出2000倍。

新的 AI 時代已經(jīng)到來,Hala Point或?qū)⒊蔀槲磥碛⑻貭柎蜷_AGI時代的重要一把“鑰匙”。

評論
中氣旋
少師級
已經(jīng)閱讀
2025-04-23
湖北胡石倫
大學(xué)士級
AI模型的算力成本正在以不可持續(xù)的速度上升。
2024-04-20