版權歸原作者所有,如有侵權,請聯(lián)系我們

類腦智能

百度百科
原創(chuàng)
全球最大中文百科全書
收藏

類腦智能(Brain-Inspired Intelligence)是人工智能的前沿領域之一,以模擬大腦的神經(jīng)結構和認知原理為核心,旨在使計算系統(tǒng)能夠具備類似人類的感知、推理和學習能力。該領域涉及計算神經(jīng)科學、人工智能和神經(jīng)形態(tài)工程等多個學科的交叉發(fā)展,近年來隨著深度學習、強化學習和神經(jīng)形態(tài)芯片等技術的突破,類腦智能正在快速推進。

類腦智能可用于機器的環(huán)境感知、交互、自主決策、控制等,基于數(shù)據(jù)理解和人機交互的教育、醫(yī)療、智能家居、養(yǎng)老助殘,可穿戴設備,基于大數(shù)據(jù)的情報分析、國家和公共安全監(jiān)控與預警、知識搜索與問答等基于知識的服務領域1。

定義

類腦智能(Brain-Inspired Intelligence)是以計算建模為手段,受腦神經(jīng)機制和認知行為機制啟發(fā),并通過軟硬件協(xié)同實現(xiàn)的機器智能。類腦智能系統(tǒng)在信息處理機制上類腦,認知行為和智能水平上類人,其目標是使機器以類腦的方式實現(xiàn)各種人類具有的認知能力及其協(xié)同機制,最終達到或超越人類智能水平1。

發(fā)展歷史

技術起源

類腦智能的早期研究可以追溯到20世紀初期,神經(jīng)科學家和心理學家開始探討人類大腦的工作機制。1943年,神經(jīng)科學家Warren McCulloch和數(shù)學家Walter Pitts提出了人工神經(jīng)元模型(A Logical Calculus of the Ideas Immanent in Nervous Activity),這是類腦計算的首次嘗試,該模型為神經(jīng)網(wǎng)絡的發(fā)展奠定了基礎2。之后,赫布提出的赫布學習法則(Hebbian Learning Rule)進一步推動了神經(jīng)網(wǎng)絡的研究3。

由于類腦智能這一研究領域還處于萌芽期,學術界尚未形成廣泛接受的概念。最早以術語“類腦智能”出現(xiàn)的正式研討可以追溯到2007年,當時Sendhoff、Sporns等人在德國組織召開了首屆國際類腦智能研討會(The International Symposium of Creating Brain-like Intelligence)。隨后出版的會議論文集中指出:“類腦智能將實現(xiàn)高度進化的生物腦所表現(xiàn)出的智能”1。

發(fā)展歷程

(1)計算神經(jīng)科學中類腦智能的早期探索

類腦智能的概念最早萌芽于20世紀的認知科學和心理學領域,研究者們試圖理解和模擬人類大腦的信息處理方式。在這一時期,學者們關注的重點是理解人腦的工作機制和神經(jīng)元之間的信息傳遞規(guī)則。1943年,神經(jīng)科學家Warren McCulloch與數(shù)學家Walter Pitts在他們的論文《神經(jīng)活動中觀念邏輯演算》中首次提出了人工神經(jīng)元的概念,通過邏輯運算來模擬神經(jīng)元的活動。這一模型為神經(jīng)網(wǎng)絡的誕生奠定了理論基礎,被認為是類腦智能最早的萌芽階段45。

隨著計算技術的發(fā)展,20世紀60年代,類腦智能的研究進入了計算神經(jīng)科學的探索階段,研究人員開始嘗試在數(shù)學和計算機模型中模擬生物神經(jīng)元網(wǎng)絡的行為。心理學家Donald Hebb提出了“赫布學習法則”(Hebbian Learning Rule),指出了神經(jīng)元之間連接強度的變化機制,這一法則為神經(jīng)網(wǎng)絡的學習算法提供了生物學依據(jù)6。此外,1960年代的計算神經(jīng)科學家進一步提出了層次化、多層感知的網(wǎng)絡模型,Rosenbla在《The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain》中提出了感知機(Perceptron)模型,感知機是最早的神經(jīng)網(wǎng)絡模型之一,能夠進行簡單的模式分類。哈伯(David H. Hubel)和托斯坦·維塞爾(Torsten Wiesel)在1960年代對貓的視覺皮層的研究揭示了視覺信息處理的層次結構。這些研究為神經(jīng)網(wǎng)絡的層次化結構提供了生物學靈感,影響了后來卷積神經(jīng)網(wǎng)絡(CNN)的發(fā)展。雖然當時的硬件和計算能力限制了網(wǎng)絡的規(guī)模,但這些模型已經(jīng)為后來的類腦智能發(fā)展奠定了重要的理論基礎7。

(2)人工智能中的神經(jīng)網(wǎng)絡研究

進入20世紀80年代,人工智能領域開始大規(guī)模研究神經(jīng)網(wǎng)絡,推動了類腦智能技術的進一步發(fā)展。1986年,David Rumelhart和Geoffrey Hinton等人提出了反向傳播算法(Backpropagation Algorithm),解決了多層神經(jīng)網(wǎng)絡的訓練問題,使得訓練復雜網(wǎng)絡結構成為可能,標志著深度學習的起點37。反向傳播算法的具體應用包括在圖像分類、語音識別、自然語言處理、自動駕駛車輛的感知系統(tǒng)等,以及在推薦系統(tǒng)中訓練深度神經(jīng)網(wǎng)絡,以提高這些系統(tǒng)的性能和準確性。在2012年,Alex Krizhevsky等人開發(fā)的深度卷積神經(jīng)網(wǎng)絡AlexNet,在ImageNet圖像識別挑戰(zhàn)賽中取得了顯著的成功。它的成功標志著深度學習在計算機視覺領域的突破。2010年代,隨著計算能力和數(shù)據(jù)量的增加,深度學習算法在計算機視覺、語音識別和自然語言處理等領域取得了顯著成果,如2012年AlexNet模型在ImageNet圖像識別競賽中取得突破,展示了深度神經(jīng)網(wǎng)絡的強大性能8。此后,類腦智能進入了快速發(fā)展的階段,現(xiàn)代類腦智能技術也由此逐步應用于自動駕駛、機器人等多個實際場景9。

重大節(jié)點

·1986年:反向傳播算法由Rumelhart等人提出,使得多層神經(jīng)網(wǎng)絡的訓練成為可能,標志著深度學習的起點9。

·2012年:卷積神經(jīng)網(wǎng)絡(CNN)在ImageNet競賽中取得成功,使得深度學習在視覺領域快速推廣,推動了類腦智能技術的發(fā)展10。

·2016年:AlphaGo戰(zhàn)勝李世石,展示了深度強化學習在復雜決策中的應用潛力,是類腦智能發(fā)展的重要里程碑11。

基本原理

類腦智能技術在硬件和軟件兩大層面上不斷創(chuàng)新,以模仿人腦的神經(jīng)元和網(wǎng)絡特性,從而實現(xiàn)類腦的認知與信息處理功能。硬件層面主要側重于構建神經(jīng)形態(tài)芯片等仿生計算平臺,而軟件層面則聚焦于神經(jīng)網(wǎng)絡和深度學習算法的開發(fā)與優(yōu)化。

硬件層面

在硬件方面,類腦智能技術致力于通過專用硬件模擬神經(jīng)元的活動方式,從而有效提升計算速度并降低能耗。這種類腦智能硬件通常稱為神經(jīng)形態(tài)硬件(neuromorphic hardware),其中較為著名的例子包括Intel的Loihi芯片和IBM的TrueNorth芯片。

(1) **神經(jīng)形態(tài)芯片:**與傳統(tǒng)的數(shù)字處理器不同,神經(jīng)形態(tài)芯片通過仿生設計實現(xiàn)大規(guī)模并行處理,模仿了生物神經(jīng)網(wǎng)絡中的神經(jīng)元和突觸的連接方式。每個神經(jīng)元可以被看作一個小型計算單元,且可以在芯片內(nèi)部實現(xiàn)大規(guī)模的神經(jīng)元互聯(lián)。通過這種并行計算方式,神經(jīng)形態(tài)芯片可以在低能耗的情況下完成復雜的計算任務。

  • **Intel Loihi:**Loihi芯片采用了脈沖神經(jīng)網(wǎng)絡(Spiking Neural Networks, SNNs)架構,這種架構能夠模仿人腦中神經(jīng)元的脈沖式信號傳遞模式,實現(xiàn)更接近生物神經(jīng)元的計算方式。這使Loihi芯片在感知、運動控制和自適應學習任務中表現(xiàn)出較強的優(yōu)勢12。實際應用中,Loihi在自適應學習和低功耗方面表現(xiàn)出色,適合于動態(tài)和實時數(shù)據(jù)處理,但其編程復雜性和生態(tài)系統(tǒng)的成熟度限制了廣泛應用。
  • **IBM TrueNorth:**TrueNorth芯片同樣采用神經(jīng)形態(tài)設計,每個芯片包含100萬個神經(jīng)元和2.56億個突觸。這一架構支持高度并行的低能耗計算,適用于圖像識別、視頻處理等對計算密度和實時性要求較高的任務13。實際應用中,TrueNorth以超低功耗和高并行性著稱,非常適合能量受限的環(huán)境和實時處理任務,但其編程難度和對網(wǎng)絡模型的靈活性限制了其在更廣泛應用中的采用。

(2) 存算一體化架構:傳統(tǒng)芯片在進行計算時需要頻繁的數(shù)據(jù)搬運,這會導致性能損耗和延遲,而類腦硬件通過存算一體化(in-memory computing)架構,將計算單元和存儲單元結合在一起,避免了數(shù)據(jù)搬運過程中的性能消耗。這類設計在降低能耗的同時提高了芯片的處理效率。

神經(jīng)形態(tài)硬件在實現(xiàn)過程中面臨許多挑戰(zhàn)。首先,功耗問題是一個主要障礙,因為神經(jīng)形態(tài)計算旨在模擬大腦的能效,但目前的實現(xiàn)往往無法達到這種低能耗水平。其次,計算效率和可擴展性問題導致在大規(guī)模神經(jīng)網(wǎng)絡模擬中遇到困難,特別是在處理復雜任務時。設計復雜性涉及到新材料和器件的開發(fā),這需要跨學科的創(chuàng)新和長期的研究投入。此外,編程模型和工具的不足使得開發(fā)者難以有效地利用硬件的潛力,導致開發(fā)周期長且成本高。數(shù)據(jù)傳輸瓶頸是另一個限制因素,影響了并行計算的整體性能。最后,確保新型器件的可靠性和可制造性是一個持續(xù)的挑戰(zhàn),因為這些因素直接影響到硬件的商業(yè)化應用和普及。

軟件層面

在軟件方面,類腦智能的核心在于神經(jīng)網(wǎng)絡的算法設計和優(yōu)化。主要的算法包括卷積神經(jīng)網(wǎng)絡(CNN)、循環(huán)神經(jīng)網(wǎng)絡(RNN)、生成對抗網(wǎng)絡(GAN)、以及脈沖神經(jīng)網(wǎng)絡(SNN)等。這些算法大多受人腦的層次化結構、記憶系統(tǒng)和信息處理方式啟發(fā),以逐層提取特征和進行復雜信息處理。

  • 卷積神經(jīng)網(wǎng)絡(CNN):CNN是類腦智能最廣泛應用的算法之一,特別適合圖像和視頻的模式識別。CNN通過仿效大腦視覺皮層中的分層特性,從輸入數(shù)據(jù)中逐層提取特征,例如邊緣、形狀和紋理等。2012年,AlexNet模型在ImageNet大規(guī)模視覺識別競賽中取得突破性成果,展示了CNN的強大識別能力,并推動了深度學習的快速發(fā)展3。主要用于自動駕駛汽車中的行人檢測和醫(yī)療影像中的腫瘤識別。CNN的設計靈感來源于貓的視覺皮層結構,特別是局部連接和共享權重的概念,類似于生物視覺系統(tǒng)中處理局部感受野的方式。

  • 循環(huán)神經(jīng)網(wǎng)絡(RNN)和長短期記憶網(wǎng)絡(LSTM:RNN和LSTM主要用于序列數(shù)據(jù)處理和記憶任務,RNN的循環(huán)結構類似于生物神經(jīng)網(wǎng)絡中神經(jīng)元之間的反饋連接,允許信息在神經(jīng)元之間反復傳遞,這與記憶和時間相關的處理有相似之處,適合自然語言處理和語音識別等任務,如應用于語音識別系統(tǒng)和實時翻譯應用中。LSTM特別適合處理長序列數(shù)據(jù),能夠保留長時間的上下文信息,并且在序列預測、語言生成等任務中得到了廣泛應用14。

  • 生成對抗網(wǎng)絡(GAN):GAN由生成器和判別器組成,通過生成器與判別器的相互對抗,模型能夠生成逼真的數(shù)據(jù)或圖像。GAN的對抗性訓練機制與生物進化中的競爭過程類似,其中不同個體通過競爭不斷優(yōu)化自身能力。這種算法被廣泛用于圖像生成、數(shù)據(jù)增強等領域。GAN的對抗式結構被認為是類腦智能在生成式任務中接近人類創(chuàng)作能力的創(chuàng)新之舉15。

  • 脈沖神經(jīng)網(wǎng)絡(SNN):SNN是一種更接近生物神經(jīng)元活動模式的神經(jīng)網(wǎng)絡,基于脈沖信號的傳遞實現(xiàn)神經(jīng)元之間的通信。SNN直接模擬了生物神經(jīng)元的脈沖放電行為,與實際神經(jīng)元的工作方式非常相似,包括時間依賴性和事件驅(qū)動的計算模式。由于脈沖神經(jīng)網(wǎng)絡只在需要時觸發(fā),具有高能效和低功耗的特點。SNN已被應用于神經(jīng)形態(tài)硬件中,例如Intel的Loihi芯片,適用于需要高能效、實時處理的任務16。

  • 自監(jiān)督學習和****無監(jiān)督學習:與監(jiān)督學習不同,自監(jiān)督和無監(jiān)督學習能夠使類腦智能系統(tǒng)在無需大量標簽數(shù)據(jù)的情況下進行訓練。這種學習方式被認為是實現(xiàn)類腦智能的關鍵之一。OpenAI和Facebook AI研究了自監(jiān)督學習的潛力,開發(fā)了如GPT和BERT等模型,用于文本生成和理解的領域1617。

硬件與軟件協(xié)同的強化

硬件和軟件的協(xié)同強化是類腦智能技術的關鍵因素之一,它要求硬件設計和軟件算法必須緊密配合,才能在實際應用中達到最優(yōu)性能。隨著神經(jīng)形態(tài)硬件和深度學習算法的發(fā)展,硬件和軟件的協(xié)同作用正變得更加重要,尤其在以下方面表現(xiàn)突出:

  • **定制化硬件加速:**為了提升神經(jīng)網(wǎng)絡的運算效率,越來越多的硬件被設計來專門加速某些計算任務。例如,TPU(Tensor Processing Unit)和FPGA(Field-Programmable Gate Array)專門優(yōu)化了矩陣乘法和卷積計算,這些操作在深度學習中至關重要。定制硬件加速器能夠?qū)崿F(xiàn)大規(guī)模并行計算,顯著提高深度學習任務的計算速度和能效。

  • **動態(tài)適應性:**硬件和軟件的協(xié)同能夠?qū)崿F(xiàn)對環(huán)境和任務的快速適應。例如,神經(jīng)形態(tài)芯片與深度學習算法結合時,可以根據(jù)任務的不同需求動態(tài)調(diào)整神經(jīng)元的連接和處理方式,使系統(tǒng)在面對變化的數(shù)據(jù)時能夠自動優(yōu)化并調(diào)整計算過程。

  • **實時處理能力:**通過硬件加速和軟件算法的協(xié)同,類腦智能系統(tǒng)可以在實時場景中進行快速決策。例如,在自動駕駛系統(tǒng)中,感知、決策和控制模塊必須在極短的時間內(nèi)進行高效的數(shù)據(jù)處理,硬件和算法的協(xié)同優(yōu)化使得系統(tǒng)能夠在復雜環(huán)境中進行快速反應和決策。

技術特點

高能效和并行計算

類腦智能硬件(如神經(jīng)形態(tài)芯片)采用脈沖神經(jīng)網(wǎng)絡(SNN)模擬生物神經(jīng)元的脈沖信號傳遞,具備極高的能效優(yōu)勢,能夠顯著降低計算能耗。這些芯片支持大規(guī)模的并行計算,模仿人腦的多神經(jīng)元協(xié)同工作模式,特別適合實時性和大規(guī)模數(shù)據(jù)處理任務。例如,Intel的Loihi芯片和IBM的TrueNorth芯片均采用這種結構,有效提升了系統(tǒng)的計算效率1213。

自適應學習和存算一體化

類腦智能系統(tǒng)能夠根據(jù)實時數(shù)據(jù)變化動態(tài)調(diào)整其神經(jīng)連接結構,具備高度的自適應學習能力。這種自適應性通常通過神經(jīng)網(wǎng)絡的學習算法,如反向傳播和強化學習等實現(xiàn)。類腦智能硬件還采用了存算一體化架構,將計算單元和存儲單元整合,減少了數(shù)據(jù)傳輸?shù)哪芎暮脱舆t,尤其適用于圖像識別、語音處理等復雜任務1415。

多層次特征提取和自監(jiān)督學習

類腦智能系統(tǒng)具有多層次的特征提取能力,模仿了人腦處理信息的層次化機制,逐步提取和整合信息。在卷積神經(jīng)網(wǎng)絡和循環(huán)神經(jīng)網(wǎng)絡等算法的支持下,這一特性得到了極大增強。此外,類腦智能系統(tǒng)能夠通過自監(jiān)督學習從數(shù)據(jù)中提取內(nèi)在結構信息,適用于語言生成、圖像識別等領域316。

高魯棒性與可擴展性

類腦智能系統(tǒng)設計具有較強的容錯能力,即使部分神經(jīng)元或連接損壞,仍能正常運行。模塊化和分布式的架構還使系統(tǒng)具有良好的擴展性,可以通過增加神經(jīng)元和突觸來提高計算能力,適應不同規(guī)模的應用場景。這種設計非常適合應用于自動駕駛、智能城市和物聯(lián)網(wǎng)等需要高度可靠性和擴展性的環(huán)境1819。

應用

類腦智能的應用重點是適合于人類相對計算機更具優(yōu)勢的信息處理任務,如多模態(tài)感知信息(視覺、聽覺、觸覺等)處理、語言理解、知識推理、類人機器人與人機協(xié)同等。即使在大數(shù)據(jù)(如互聯(lián)網(wǎng)大數(shù)據(jù))應用中,大部分數(shù)據(jù)也是圖像視頻、語音、自然語言等非結構化數(shù)據(jù),需要類腦智能的理論與技術來提升機器的數(shù)據(jù)分析與理解能力。

具體而言可以將類腦智能的應用場景分為以下幾個小段:

(1) **醫(yī)療領域:**在醫(yī)療領域,類腦智能可以用于影像分析和病理診斷。通過分析海量的醫(yī)學影像數(shù)據(jù),類腦智能系統(tǒng)能夠快速識別異常病灶,輔助醫(yī)生進行精準診斷。此外,類腦智能還可以用于個性化醫(yī)療方案的制定,通過分析患者的歷史病歷和基因數(shù)據(jù),提供更為精準的治療建議。

(2) **教育領域:**在教育領域,類腦智能可以通過數(shù)據(jù)理解和人機交互,為學生提供個性化的學習體驗。智能教育系統(tǒng)能夠根據(jù)學生的學習進度和興趣,動態(tài)調(diào)整教學內(nèi)容和方式,提升學習效率和效果。同時,類腦智能還可以用于自動批改作業(yè)和考試,提高教育管理的效率。

(3) **智能家居與養(yǎng)老助殘:**在智能家居和養(yǎng)老助殘領域,類腦智能系統(tǒng)能夠通過環(huán)境感知和自主決策,為用戶提供智能化的生活服務。例如,智能家居設備可以自動調(diào)節(jié)室內(nèi)溫度和照明,基于用戶的行為習慣進行優(yōu)化;在養(yǎng)老助殘方面,類腦智能機器人可以提供日常護理和緊急情況處理,提升老年人和殘障人士的生活質(zhì)量。

(4) **智能駕駛領域:**在智能駕駛領域,類腦智能系統(tǒng)能夠有效處理復雜的駕駛決策。通過整合多種傳感器數(shù)據(jù),類腦智能可以實時感知周圍環(huán)境,預測其他車輛和行人的行為,從而做出安全高效的駕駛決策。這將大大提升自動駕駛汽車的安全性和可靠性。

(5) **可穿戴設備:**在可穿戴設備中,類腦智能可以用于健康監(jiān)測和個性化健康管理。通過實時監(jiān)測用戶的生理數(shù)據(jù),智能設備可以提供健康建議、運動指導,并在檢測到異常時及時預警。

(6) **情報分析與公共安全:**基于大數(shù)據(jù)的情報分析和公共安全監(jiān)控,類腦智能可以用于國家安全監(jiān)測與預警。通過分析海量的監(jiān)控數(shù)據(jù)和網(wǎng)絡信息,類腦智能系統(tǒng)能夠識別潛在的安全威脅,并提供決策支持,提升國家和公共安全的應對能力。

(7) **知識搜索與問答:**在知識搜索與問答領域,類腦智能可以通過自然語言處理技術,為用戶提供智能化的知識服務。無論是復雜的專業(yè)問題還是日常的簡單查詢,類腦智能系統(tǒng)都能快速理解用戶需求并提供準確的答案,提升搜索和問答的效率與效果。

相關研究與發(fā)展

未來發(fā)展方向

  • **腦機接口:**未來發(fā)展將集中于無創(chuàng)、低功耗的干電極腦電信號采集與傳輸系統(tǒng)。這包括利用腦電波實現(xiàn)智能設備控制、腦信號解析與識別,以及開發(fā)腦電信號適應性增強的腦機交互技術。未來的發(fā)展將使得腦機接口更加無創(chuàng)化和普及化,能夠用于醫(yī)療康復、智能設備控制以及增強現(xiàn)實等領域。隨著技術進步,腦電信號的采集和解析將更加精準和高效。目前的挑戰(zhàn)包括信號噪聲、低信噪比、設備舒適性和長時間佩戴的穩(wěn)定性。此外,數(shù)據(jù)傳輸?shù)膶崟r性和處理算法的準確性也需要進一步提高。

  • **神經(jīng)形態(tài)硬件:**采用非馮·諾依曼架構的神經(jīng)形態(tài)硬件正在探索高互連性、低功耗的神經(jīng)處理技術,當前的挑戰(zhàn)包括編程工具與復雜的互連結構。隨著技術突破,神經(jīng)形態(tài)硬件有望成為類腦智能的主要計算平臺。神經(jīng)形態(tài)硬件有望在低功耗、高效率計算中發(fā)揮重要作用,特別是在物聯(lián)網(wǎng)設備和邊緣計算中。隨著材料科學和制造工藝的進步,神經(jīng)形態(tài)硬件將進一步接近生物神經(jīng)網(wǎng)絡的處理能力。要挑戰(zhàn)包括復雜的編程工具開發(fā)、硬件互連結構的高復雜性以及與傳統(tǒng)計算架構的兼容性問題。此外,如何實現(xiàn)大規(guī)模生產(chǎn)和商業(yè)化應用也是一個關鍵難題。

  • **機器學習:**未來研究將深入探索自適應學習模型和數(shù)據(jù)優(yōu)化算法,以改進類腦智能的學習和數(shù)據(jù)處理能力,重點放在如何匹配海量數(shù)據(jù)與高效算法,從而實現(xiàn)類腦智能的最優(yōu)性能,促進自動化、個性化服務和智能決策系統(tǒng)的發(fā)展。當前的瓶頸在于對多樣化和動態(tài)環(huán)境的適應性不夠,以及對數(shù)據(jù)隱私和安全的擔憂。此外,計算資源的高需求和能耗也是限制因素。

  • **混合現(xiàn)實:**混合現(xiàn)實(MR)技術結合了現(xiàn)實與虛擬世界,通過更自然的人機交互和沉浸式體驗,廣泛應用于教育、娛樂、醫(yī)療和工業(yè)設計等領域。類腦智能技術的融入將進一步提升用戶體驗的個性化和交互的自然性。面臨的挑戰(zhàn)包括設備的便攜性、顯示技術的分辨率和延遲,以及內(nèi)容生成的復雜性。此外,用戶的長時間佩戴舒適性和交互的自然性仍需改進。

  • **凝視控制:**通過眼球跟蹤和視線指令來控制設備,實現(xiàn)凝視控制功能。應用場景包括智能手機、電視、計算機等,通過眼睛移動實現(xiàn)操作,例如武器瞄準或車輛導航。當前的挑戰(zhàn)包括眼球跟蹤的準確性、環(huán)境光線對系統(tǒng)的影響,以及用戶眼部疲勞問題。此外,如何在不同用戶間保持一致性和適應性也是一個難題。

  • **認知計算:**認知計算技術致力于模仿人腦的分層信息處理機制,以提升系統(tǒng)對復雜任務的認知與決策能力,未來將重點探索基于生物可塑性和神經(jīng)元連接的動態(tài)更新算法。面臨的挑戰(zhàn)包括模型的復雜性、對大規(guī)模數(shù)據(jù)的處理能力,以及如何有效模擬人腦的層次化信息處理機制。此外,確保系統(tǒng)的透明性和可解釋性也是重要問題

  • **類腦智能機器人:**將人腦的感知、認知和控制機制融入機器人,賦予其自主學習與多感官整合的能力,使機器人能夠?qū)崿F(xiàn)更為復雜的行為控制和人類般的認知反饋主要挑戰(zhàn)包括復雜環(huán)境下的感知與決策能力、能耗與計算效率的平衡,以及與人類的安全交互。此外,如何實現(xiàn)大規(guī)模部署和成本控制也是關鍵問題20。

最新研究進展

近十年來,世界主要經(jīng)濟體高度重視類腦智能產(chǎn)業(yè)發(fā)展,相繼出臺類腦智能技術研究計劃,在搶占全球類腦智能技術創(chuàng)新競爭高地,推動類腦智能產(chǎn)業(yè)發(fā)展??傮w來看,美國率先布局類腦智能技術研究,技術體系全面覆蓋,占據(jù)全球領先地位;歐盟、日本、韓國類腦智能技術研究各有側重,成果顯著;中國力爭成為類腦智能技術全球領先者,于 2021年正式啟動“腦科學與類腦科學研究”計劃,該計劃呈現(xiàn)“一體兩翼”布局,類腦智能研究是重要一翼。

美國類腦智能基礎研究處于世界前沿,技術體系覆蓋全面,是全球類腦智能產(chǎn)業(yè)發(fā)展最領先的國家。美國類腦智能研究已基本實現(xiàn)從基礎理論研究到產(chǎn)業(yè)化應用的整體布局,技術體系分布均衡。在腦科學機理研究方面,2015年美國科學家成功繪制大腦皮層的神經(jīng)連接圖譜,2019 年美國發(fā)布《美國腦科學計劃 2.0》,希望在2020年至2026年期間進一步夯實類腦智能研究的理論基礎。在軟硬件研究方面,美國擁有全球數(shù)量最多的類腦智能領域的頭部企業(yè),類腦芯片、器件、算法全球領先。

歐盟類腦智能技術研究主攻類腦計算,類腦芯片成果顯著,類腦智能初創(chuàng)企業(yè)云集。2013年歐盟啟動“人類大腦計劃”(Human Brain Project, HBP)旗艦項目,旨在為類腦智能研究奠定理論基礎。2015年HBP轉(zhuǎn)變研究目標,主攻類腦計算和認知神經(jīng)科學,并組建六個信息及技術平臺。在 HBP資助下,歐盟在微皮層回路模型、生物模擬算法等類腦智能基礎研究領域取得進展。

日本類腦智能技術研究起步早,側重大腦機理研究,結合人工智能技術優(yōu)勢,類腦智能產(chǎn)業(yè)前景較好。2018年9月,日本正式啟動 Brain/MINDS Beyond 計劃,在狨猴大腦研究基礎上開展人類大腦研究,將開發(fā)基于人工智能的腦科學技術作為主攻方向之一,旨在加快類腦智能技術應用。近5年來,日本相繼發(fā)布《人工智能戰(zhàn)略 2019》《人工智能戰(zhàn)略 2021》《人工智能戰(zhàn)略 2022》,不斷強化類腦智能技術研發(fā)和產(chǎn)業(yè)應用,憑借良好的人工智能產(chǎn)業(yè)基礎和技術優(yōu)勢,日本腦機接口技術企業(yè)得以發(fā)展。

韓國立法將類腦智能研究確立為國家戰(zhàn)略,聚焦人機交互等實用技術開發(fā)和研發(fā)成果擴散,三星研發(fā)成果突出。2016 年韓國發(fā)布《腦科學發(fā)展戰(zhàn)略》,提出建立聯(lián)系大腦結構和功能的大腦地圖數(shù)據(jù)庫,開展機械臂控制等人機交互技術研發(fā)。2017年韓國發(fā)布《腦研究促進實施計劃》,設立六大機構對大腦認知機理、功能等方面開展研究,并將大腦機理研發(fā)成果擴散至人工智能技術領域。韓國三星在神經(jīng)形態(tài)硬件方面的研發(fā)實力雄厚,例如,2022年三星發(fā)布了全球首款基于磁阻隨機存取存儲器的類腦芯片,邁出將大腦神經(jīng)元復制到芯片的第一步。

中國高度重視類腦智能研究,南北腦中心、高校等科研機構成為技術創(chuàng)新的重要載體,類腦智能企業(yè)涌現(xiàn)。2016年中國將“腦科學與類腦研究”列為科技創(chuàng)新2030重大項目,2021年中國腦計劃正式啟動,將建立和發(fā)展人工智能技術為導向的類腦智能研究作為重要內(nèi)容。自2014年以來,清華大學、復旦大學、中國科學院等紛紛成立類腦智能研究中心,2018年北京腦科學與類腦研究中心和上海腦科學與類腦研究中心正式成立,類腦智能研究得到中國知名高校和科研機構的高度重視,并在硬件和理論層面取得原創(chuàng)性成果,如清華大學研制的TianJic 芯片、浙江大學研制的Darwin芯片以及清華大學提出的類腦計算領域的完備性理論。中國類腦智能初創(chuàng)企業(yè)涌現(xiàn),如中科類腦、西井科技、寒武紀、靈汐科技、鯨算科技、新氦類腦智能等21。

內(nèi)容資源由項目單位提供

評論
中氣旋
少師級
已經(jīng)閱讀
2025-04-10