自然界中,即使最小的生物也能解決極為復(fù)雜的計算問題,很多昆蟲大腦的神經(jīng)元數(shù)目遠低于100萬個,卻能實時跟蹤物體、導(dǎo)航和躲避障礙物。而人類大腦由860億個互相連接的神經(jīng)元組成,要讓人工智能變得和人一樣聰明談何容易。
目前由兩個上述神經(jīng)擬態(tài)芯片組成的神經(jīng)擬態(tài)系統(tǒng)有26.2萬個神經(jīng)元,相當(dāng)于擁有了一只瓢蟲的智慧,而由768塊神經(jīng)擬態(tài)芯片組成的神經(jīng)擬態(tài)系統(tǒng)的智慧則追上了倉鼠。
如果神經(jīng)元的組織方式?jīng)Q定了大腦的思考方式,那么實現(xiàn)神經(jīng)擬態(tài)計算,首先需要構(gòu)建一個模擬大腦神經(jīng)元工作的計算芯片。宋繼強說:“我們試圖觀察、學(xué)習(xí)和理解大腦的運行,并在計算機芯片上復(fù)制。”
德國海德堡大學(xué)物理學(xué)家卡爾海因茨·邁耶是神經(jīng)擬態(tài)學(xué)工程師們的領(lǐng)軍人物,在他看來,人類大腦具有低功耗、容錯及無需編程三大特點,雖然人類大腦功率只有20瓦特左右,并且時刻都在失去神經(jīng)元,卻不影響它對這個世界的運算、理解和應(yīng)對。相比之下,試圖模擬人腦的超級計算機卻必須預(yù)設(shè)算法,動輒需要幾百萬瓦特的功率,失去一個晶體管就能破壞一個微處理器。
宋繼強說:“深度學(xué)習(xí)的功率越來越高,現(xiàn)在即便訓(xùn)練一個圖像識別模型,都需要數(shù)千瓦特,能源消耗已成為大規(guī)模AI部署的障礙。”
而擁有存儲和計算一體結(jié)構(gòu)的神經(jīng)擬態(tài)芯片,節(jié)約了傳統(tǒng)計算架構(gòu)中處理單元和存儲器間通信所消耗的時間和功耗。
2017年,全球首款自主學(xué)習(xí)神經(jīng)擬態(tài)芯片問世,包含13萬個神經(jīng)元和1.28億個突觸,使芯片向人腦進化成為可能。
如果說深度學(xué)習(xí)是通過大量標(biāo)注數(shù)據(jù)讓機器學(xué)習(xí)解決某一問題,如AlphaGO沒有學(xué)習(xí)象棋前,只會下圍棋,神經(jīng)擬態(tài)計算就是通過模擬人腦神經(jīng)元工作機制,讓人工智能不只局限于某一領(lǐng)域。
在神經(jīng)擬態(tài)芯片展示的學(xué)會的各種能力中,不僅包括實時識別手勢、使用新型人造皮膚閱讀盲文、還包括通過自主學(xué)習(xí)獲得視覺地標(biāo)確定方向及學(xué)習(xí)新氣味,而上述每項功能只消耗數(shù)十毫瓦。
有專家認為,這一突破為科學(xué)研究需要的可自主、互聯(lián)的實時、動態(tài)數(shù)據(jù)處理新方法奠定了基礎(chǔ),擴展了蓬勃興起的邊緣計算應(yīng)用前景。
要商用還需通用計算架構(gòu)
在深度學(xué)習(xí)、機器學(xué)習(xí)之后,神經(jīng)擬態(tài)計算被認為是推動人工智能進入新階段的重要手段。雖然量子計算也擅長大規(guī)模計算,在某些任務(wù)中,它的理論可擴展性甚至超過神經(jīng)擬態(tài)系統(tǒng),但相比神經(jīng)擬態(tài)計算,量子計算離真正商用還有不小的距離。
雖然看上去神經(jīng)擬態(tài)芯片的商用比量子計算更近一步,部分研究機構(gòu)已展示了很多神經(jīng)擬態(tài)計算應(yīng)用,但要大規(guī)模商用,還需要解決通用性不足的問題。
“距離將產(chǎn)品推向市場,我們還要等待數(shù)年。”英特爾神經(jīng)擬態(tài)計算實驗室主任邁克·戴維斯說,我們真正感興趣的是找到一種像馮·諾依曼架構(gòu)那樣相對通用的新型計算架構(gòu)。這才是真正擴展可應(yīng)用通用計算產(chǎn)品組合的開始。
研究機構(gòu)Gartner預(yù)測,2025年,神經(jīng)擬態(tài)芯片有望取代GPU,成為先進人工智能部署的主要計算架構(gòu)。
宋繼強不完全認同這種說法:“機器學(xué)習(xí)在很多領(lǐng)域依然是目前最好的訓(xùn)練、學(xué)習(xí)手段之一。只有將多種技術(shù)靈活的運用到人工智能領(lǐng)域,它才能真正成為惠及民生的產(chǎn)業(yè)。”
宋繼強強調(diào),Pohoiki Springs等神經(jīng)擬態(tài)系統(tǒng)仍處于研究階段,設(shè)計目的并非取代傳統(tǒng)的計算系統(tǒng),而是為研究人員提供工具來開發(fā)和描繪新的算法。(本報記者 劉 艷)
上一頁 1 2 下一頁