
智東西(公眾號:zhidxcom)
作者 |? 徐豫
編輯 |? 心緣
智東西9月27日(ri)(ri)消息,國(guo)內AI大(da)模(mo)(mo)型創(chuang)企巖(yan)(yan)芯(xin)數智(RockAI,簡稱巖(yan)(yan)芯(xin))昨日(ri)(ri)發布(bu)了自研的新一代非Transformer架構大(da)模(mo)(mo)型,名為(wei)Yan1.3多模(mo)(mo)態大(da)模(mo)(mo)型。該(gai)模(mo)(mo)型今年11月正式向(xiang)開(kai)發者(zhe)開(kai)源(yuan)。
目(mu)前,巖芯數智已實現(xian)該模型在(zai)手機(ji)、電腦(nao)、無人機(ji)、機(ji)器(qi)人等端側硬(ying)件上的(de)離(li)線部署(shu),距離(li)全(quan)面“脫機(ji)”使用AI大模型更近了一步。此外,該公司設立了1億(yi)元(yuan)的(de)Yan基金用于(yu)開展Yan生態合作,并透(tou)露其已與多家上下游運營商(shang)和廠商(shang)洽談端側人工智能(AI)項目(mu)。
Yan1.3多模(mo)態大模(mo)型(xing)在巖芯數智(zhi)(zhi)還有(you)另一個叫(jiao)法,即群體智(zhi)(zhi)能(neng)單元大模(mo)型(xing)。受到生物智(zhi)(zhi)能(neng)的(de)啟發(fa),巖芯數智(zhi)(zhi)CEO劉(liu)凡(fan)平想要用類人腦(nao)機制的(de)Yan架構(gou),釋放機器智(zhi)(zhi)能(neng)的(de)未知潛能(neng)。
會上,巖(yan)芯數智(zhi)CEO劉凡平分享(xiang)了(le)他(ta)放棄大家一直看(kan)好的(de)Transformer架(jia)構,堅持(chi)非Transformer架(jia)構的(de)緣(yuan)由和心路歷(li)程。
“國(guo)內AI模(mo)型開發者(zhe)都(dou)在(zai)追隨海(hai)外的步伐,這像一場沒有終(zhong)點(dian)的技術接力賽。”在(zai)劉凡平眼(yan)里,這種跟(gen)隨、模(mo)仿沒有意義(yi)。于是,他決(jue)定自研(yan)非(fei)Transformer架構大模(mo)型。
不過,今年1月推(tui)出的(de)Yan1.0架(jia)構大模(mo)型,劉凡(fan)平直言受(shou)到(dao)了不少質疑。此后,耗時8個月,經(jing)歷了Yan1.1、Yan1.1 Plus、Yan1.2的(de)3次迭代,巖芯數(shu)智才推(tui)出了Yan1.3版本。
劉(liu)凡平稱,Yan1.3群(qun)體(ti)智能(neng)單元(yuan)大(da)模(mo)型突破了云端(duan)大(da)模(mo)型和端(duan)側大(da)模(mo)型之間的“楚河漢界”,是一個(ge)(ge)面向機(ji)器的群(qun)體(ti)智能(neng)單元(yuan)大(da)模(mo)型,將從另一個(ge)(ge)維度上孵化“進化中(zhong)的生命體(ti)”。
此外,今天的AI前沿論壇邀請了中科院上海(hai)微(wei)系(xi)統所研究員李孟(meng)和浙江大(da)學人工智能系(xi)主任(ren)楊(yang)洋,劉凡平與(yu)他們一同(tong)探討AI大(da)模(mo)型與(yu)腦(nao)科學在學術界和工業界的最(zui)新進展。
談及(ji)Yan架構群體智能單元(yuan)大模(mo)型的意義,楊洋認為該大模(mo)型將普惠很多想用(yong)AI技(ji)術卻(que)用(yong)不上的硬件廠商(shang)。這等同于“分(fen)發入(ru)場券”,楊洋說(shuo)道,算力資源匱乏的個體也(ye)可以(yi)入(ru)局AI市場,激活整個AGI生態。
劉(liu)凡平補(bu)充道(dao),Yan架構(gou)群(qun)體(ti)智(zhi)能單元大模型除了能夠降低個(ge)(ge)體(ti)的(de)“入行門檻”,還能推動個(ge)(ge)體(ti)智(zhi)能化進(jin)階到群(qun)體(ti)智(zhi)能化,將(jiang)現有的(de)大量端側工具,做(zuo)成(cheng)一個(ge)(ge)可(ke)以本地(di)直接使(shi)用的(de)AI生命體(ti),從而借助群(qun)體(ti)的(de)力量突破(po)機器智(zhi)能的(de)上(shang)限(xian)。
一、少內存、小算力、不開模、低成本獲得端側AI能力
作為(wei)巖芯(xin)數(shu)智的創始(shi)人之一(yi),鄒佳(jia)思分享了Yan1.3多模(mo)態大模(mo)型在(zai)端側硬件的落地情況(kuang)。
通常來(lai)說,AI大模(mo)(mo)(mo)型在端側的應用(yong)需要考慮到設(she)備內存占用(yong)、續(xu)航(hang)、硬件開模(mo)(mo)(mo)成本(ben)等難點。Yan1.3多模(mo)(mo)(mo)態大模(mo)(mo)(mo)型占用(yong)的內存基本(ben)控制在1GB左右,遠小于市面上的主流產品。
同(tong)時,通(tong)過非(fei)Transformer架(jia)構和(he)局部算力(li)激活(huo)機制(zhi),低(di)算力(li)設(she)(she)備也(ye)可(ke)以適配(pei)該AI大模型(xing),可(ke)以復用現有的存量設(she)(she)備。
1、飛行模式下可用,參數量僅3B,中低端手機也能絲滑運行
在飛行模式下,用戶點開手機界面(mian)(mian)的RockAI(巖芯數(shu)智(zhi))智(zhi)能(neng)助手App,用自(zi)然語言說(shuo)出照片(pian)中(zhong)的一些畫面(mian)(mian)要素(su),比如“一張(zhang)在海(hai)邊看(kan)日落(luo)的照片(pian)”,RockAI智(zhi)能(neng)助手就可(ke)以離線檢索出一系列相匹配的照片(pian)。
同(tong)時,RockAI智能(neng)助手還可以一鍵(jian)生成小紅書風格的(de)文案,耗(hao)時約7到8秒。
此外,它(ta)還能參(can)考畫面要素寫(xie)出不同主題的文(wen)(wen)案(an)。聯網情況(kuang)下,上(shang)述文(wen)(wen)案(an)和照片能夠(gou)直接跳轉(zhuan)分享(xiang)至微信朋友圈(quan)。
據(ju)鄒(zou)佳思透(tou)露(lu),RockAI智能助手(shou)(shou)App使用(yong)的(de)是參數量(liang)僅3B的(de)Yan1.3多(duo)模態大模型,不(bu)僅AI圖片生成文字所花費的(de)時間,比大部(bu)分(fen)手(shou)(shou)機上的(de)AI語音助手(shou)(shou)快至少(shao)30%,而且(qie)大部(bu)分(fen)中低端手(shou)(shou)機的(de)CPU都能帶得動該模型。
2、迅兔AI PC拿下“五環外的”偏遠地區市場份額
斷網情況下(xia),部署(shu)了Yan1.3多模(mo)態大模(mo)型的迅兔AI PC,可以(yi)(yi)聽(ting)懂自然(ran)語(yu)言的語(yu)音指令,并支持音頻(pin)轉錄、會(hui)議總結、以(yi)(yi)文找(zhao)圖(tu)、以(yi)(yi)圖(tu)找(zhao)圖(tu)等功能。
例如,對它說出“幫我把所(suo)有(you)橘(ju)貓的照(zhao)片(pian)都(dou)刪掉”,該AI PC就(jiu)可(ke)以在離線狀態下找出相應的照(zhao)片(pian)。
據巖芯數智方面透(tou)露(lu),從目(mu)前已有的測(ce)試結果來看,該大模型單次音(yin)頻轉寫時長(chang)和(he)文本(ben)輸出長(chang)度,可以(yi)“無(wu)上限”。
鄒佳思稱(cheng),在一(yi)些(xie)預(yu)算不多(duo)的偏遠地區或海(hai)外國家,Yan1.3多(duo)模態(tai)大(da)模型已然是PC界的一(yi)塊“香餑餑”。
不(bu)論是高端、中(zhong)端,還是低端的PC主(zhu)機上,該端側AI模型(xing)都可以(yi)流暢運行,“五環外(wai)的設備(bei)也可以(yi)用”,而(er)且單臺(tai)內嵌Yan1.3多模態大模型(xing)的AI PC價格,不(bu)到一臺(tai)微軟(ruan)AI PC的1/5。
3、胖虎機器人賞畫作詩
小(xiao)蘇和胖虎是巖芯數智兩款端側具備多(duo)模態認(ren)知(zhi)能力的機(ji)器(qi)人,巖芯數智主要負(fu)責其“大腦”和“小(xiao)腦”,本體則由巖芯數智的合作伙伴提(ti)供。
他(ta)們可以(yi)在離(li)線狀態下,控制肢體完成(cheng)“七步成(cheng)詩(shi)”、“詠春(chun)拳法”等復(fu)雜任務,還(huan)能理解(jie)并執(zhi)行(xing)模糊指令,比如(ru)“讓一讓道”。
胖虎機(ji)器人可(ke)以在離線狀態下“賞畫”和“寫詩”,還能理(li)解周邊(bian)的(de)環(huan)境。例如,除(chu)了掛(gua)畫內容(rong),它還描述到畫框外是“白色的(de)墻(qiang)壁和地板”。
胖(pang)虎機(ji)器人接(jie)收到(dao)四(si)步(bu)作(zuo)詩的(de)指令后,會邁一次左右(you)腿,說一句詩詞,并將這個過程重(zhong)復4次。
不過,在查詢一(yi)些天氣情況(kuang)等實時變化的信息時,胖虎(hu)機器人(ren)需(xu)要聯網才能給(gei)出準(zhun)確情報,不然會“睜(zheng)眼說(shuo)瞎話(hua)”。
針對本地部(bu)署(shu)Yan架構大(da)模型的(de)機器(qi)人(ren),鄒佳思希望將來這些機器(qi)人(ren)能夠(gou)全模態實時人(ren)機交(jiao)互。
4、沒有網絡,飛龍無人機也能“目光鎖定”河面垃圾、違規停車
飛(fei)龍無(wu)人機是國內首個(ge)工(gong)業落地(di)的多模態大(da)模型(xing)無(wu)人機,具有無(wu)損(sun)耗的百毫(hao)秒實時(shi)檢測能力。
該無(wu)人機通過外(wai)掛算力來(lai)部署大模型。
基于Yan1.3多模態大模型,飛龍無人機可以高效適(shi)配電力巡檢、安全(quan)監控、環境監測等應用場景。
有運營(ying)商向巖芯數智(zhi)提供(gong)了(le)低(di)空5G模組。因此,在飛龍(long)無人機的實景巡檢演示中,我們可以(yi)看(kan)到(dao)無人機通過(guo)攝像頭看(kan)見了(le)“限低(di)10米(mi)”的標注后,會自動將巡航高度從5.08米(mi)拉升(sheng)到(dao)14.58米(mi)。
路邊垃(la)圾(ji)桶有垃(la)圾(ji)溢出、河(he)面漂浮著(zhu)垃(la)圾(ji)、不規范停車的行為……這些(xie)飛龍無人(ren)機都可以(yi)自動掃視、識別(bie)并記錄。
該無人(ren)(ren)機(ji)還可(ke)以根(gen)據指令AI拍圖,自動捕捉最佳角(jiao)度,并一鍵挑(tiao)選你的“人(ren)(ren)生(sheng)照片(pian)”。
二、整體性能跑贏Llama 3,Yan1.3可實現CPU秒級人機交互
巖(yan)芯數(shu)智CEO劉(liu)凡平用螞蟻群(qun)(qun)、狼群(qun)(qun)、大雁群(qun)(qun)的生存法則,來類比Yan1.3群(qun)(qun)體智能單元大模(mo)型去中(zhong)心化的工作原理。
論如何激發機器智(zhi)能(neng)的群(qun)體智(zhi)能(neng),巖芯數智(zhi)方面認為需(xu)要(yao)同時滿足以下(xia)3點:
1、搭載了(le)具備自主學習(xi)能(neng)力的若干智能(neng)單元;
2、這些分散的智(zhi)能(neng)單元,可以(yi)通過環境感知(zhi)、自我組織和互動協作,共(gong)同解決復雜問題;
3、并(bing)且要在不斷變(bian)化的環(huan)境(jing)中,實現整體智能提升(sheng)。
Yan架構大模(mo)型(xing)采用了巖芯數智自研的非(fei)Transformer架構。劉凡平稱,與市面上采用Transformer架構和非(fei)Transformer架構的主流模(mo)型(xing)相比,Yan架構大模(mo)型(xing)的性能(neng)、效率在同等參數量(liang)下都更(geng)高。
目前(qian)來(lai)看,在小參(can)數量級別(bie),Yan1.3多模態大模型的(de)整(zheng)體性能(neng)超(chao)過Llama 3,各方面能(neng)力基本優于Pythia和Mamba。
在劉凡平(ping)看來(lai),Yan1.3群體智能(neng)單元(yuan)大模型有3個(ge)亮點。
首(shou)先,它(ta)是全球人(ren)機交(jiao)互領域第一個端到端的多模態(tai)大模型。其模擬(ni)了人(ren)腦處理信息的方式,主要(yao)通過文(wen)本(ben)、音頻(pin)、視頻(pin)輸入信息,然后通過文(wen)本(ben)和音頻(pin)輸出。
至于為什么不做(zuo)AI文本生(sheng)成視(shi)頻(pin)(pin),劉(liu)凡平在會后接受(shou)采訪(fang)時稱,巖芯(xin)數智更傾向(xiang)于訓練Yan架構(gou)多模態大模型(xing)具(ju)備類(lei)人(ren)的視(shi)頻(pin)(pin)剪(jian)輯、制作能力,而不是直接生(sheng)成視(shi)頻(pin)(pin)。這種構(gou)建大模型(xing)的思(si)路,為AI未來自主(zhu)修改、編輯視(shi)頻(pin)(pin)留有可行性。
其次,它是全球(qiu)首個跨(kua)越(yue)廣泛設備的多模(mo)態大模(mo)型。該模(mo)型的應用范(fan)圍覆蓋電視、手機、VR、車載(zai)、APIC、智慧(hui)家居、機頂盒、樹(shu)莓派、具(ju)身機器(qi)人(ren)、教育機器(qi)人(ren)、無人(ren)機等。
最后,該(gai)模(mo)型在(zai)實時人機交互上(shang)可以達到CPU秒(miao)級、GPU百毫秒(miao)級的速度。“沒有誰比我(wo)們更快了,”劉凡平說道(dao)。
三、訓練數據不能過于“純凈”,AI大模型應學會自主淘汰冗雜信息
為什(shen)么說傳統Transformer架構大(da)模型并不是AGI的(de)最(zui)優(you)解呢?劉凡平解釋道,雖(sui)然市(shi)面上大(da)部分模型都具備理解表達能力,但幾乎(hu)還(huan)沒有選擇遺(yi)忘和自主學(xue)習的(de)能力。
其中,“選擇遺忘”指(zhi)向的(de)(de)是AI模型的(de)(de)動態篩(shai)選、更新信息的(de)(de)能力,使其和(he)人(ren)類大(da)腦一樣,在(zai)真實(shi)的(de)(de)物理世界(jie)中保持活躍的(de)(de)狀態。
而群體智能單元(yuan)大模型兼具這3項(xiang)核心能力,底層(ceng)邏(luo)輯更類(lei)人腦,也更接近AGI。
在巖芯數智的規劃(hua)中,機(ji)器(qi)智能(neng)(neng)走向群(qun)體(ti)智能(neng)(neng)要經歷(li)4個階段,分別是(shi)100%自(zi)研具有創(chuang)新性的大模型基礎架構、構建多(duo)元化硬件生(sheng)態、實現自(zi)適應智能(neng)(neng)進化和協同(tong)化群(qun)體(ti)智能(neng)(neng)。
就Yan1.3群(qun)體(ti)智能單元大模型而言,巖芯(xin)數智來到激發(fa)群(qun)體(ti)智能的第(di)二階段。
目前,該公司正在將跨平臺、低算力、多(duo)模(mo)態(tai)的(de)群體智能(neng)單元大模(mo)型(xing),通過內嵌或外掛(gua)的(de)方式,部署(shu)在大疆(jiang)無人機、樹(shu)莓派(pai)單板計算機等(deng)硬(ying)件上,并(bing)且無損(sun)運行。
下一步,Yan架(jia)構大模型將(jiang)重點攻破(po)自主學習(xi)與自我優化能力上。
巖芯(xin)數智(zhi)(zhi)方(fang)面稱,有計(ji)劃構建一種能(neng)夠持續(xu)進化的智(zhi)(zhi)慧生物,并在其中搭載一個(ge)信息互換與協作體(ti)系,從(cong)而實現機器群體(ti)智(zhi)(zhi)能(neng)的突破性(xing)進展。這也是(shi)Yan2.0,以及(ji)Yan2.0不斷迭代后(hou)所要達到(dao)的目標(biao)。
設(she)計一個高效的(de)(de)AI模(mo)型是(shi)(shi)推進群(qun)體(ti)智能的(de)(de)第一步,巖芯數智選(xuan)擇無量化、無裁剪地原生部署Yan架構大(da)模(mo)型。群(qun)體(ti)智能的(de)(de)核心是(shi)(shi)個體(ti),可(ke)以(yi)將其理解為端。這也意味著,AI模(mo)型要能夠在端側(ce)運行,才(cai)能去學習、去進化。
然而,劉凡平解釋道,目前(qian)主流的(de)Transformer架構模型只能(neng)量化、裁剪后,才(cai)能(neng)在端側運行。經(jing)過“閹割”后的(de)AI模型,也不再(zai)具備自主學(xue)習的(de)能(neng)力(li)了。
為了(le)進一步(bu)提升(sheng)Yan架構大模型的(de)自(zi)主學(xue)(xue)習(xi)能力,巖芯(xin)數智(zhi)方面提出了(le)訓推同(tong)步(bu)的(de)策略,即大模型輸入信(xin)息的(de)時候(hou)屬于學(xue)(xue)習(xi)過程,輸出信(xin)息的(de)時候(hou)屬于訓練過程,這兩個(ge)步(bu)驟是實(shi)(shi)時同(tong)步(bu)發生(sheng)的(de)。CEO劉凡平視(shi)其(qi)為“群體智(zhi)能單元(yuan)大模型自(zi)主學(xue)(xue)習(xi)實(shi)(shi)現(xian)的(de)最(zui)佳(jia)方式(shi)”。
同時(shi),該公司(si)還(huan)將Yan架構大(da)模型放(fang)在一(yi)個(ge)“充(chong)滿噪聲”的物理環(huan)境中。
一(yi)個(ge)“真空(kong)無害(hai)”的環境并不利(li)于孩童的成(cheng)長,AI機(ji)器也(ye)是一(yi)樣的。CEO劉(liu)凡(fan)平稱(cheng),野生的數據(ju)環境才是最真實的,信(xin)息會(hui)散落在各處,比(bi)如(ru)現場大屏幕上的PPT、音(yin)響(xiang)中播放的音(yin)樂、觀(guan)眾的神情姿態……
因此,劉凡平希望訓練AI機器去(qu)自主(zhu)捕捉、篩選(xuan)和利用信息,而非坐等(deng)投喂人工(gong)精選(xuan)、提純的(de)數(shu)據(ju)。
四、終身學習的能力,是非Transformer架構大模型的核心優勢
作為Transformer架(jia)構(gou)的代表,OpenAI只(zhi)是(shi)暫(zan)時站(zhan)在了時代的聚光燈下,中科院上(shang)海微(wei)系統(tong)所研究員、博(bo)士(shi)生導(dao)師李(li)孟說(shuo)道。一(yi)個新技術從(cong)出(chu)現,到逐漸被人們接受,再到全面暴開。期間經歷爭(zheng)議,也收獲掌聲,這都是(shi)一(yi)家(jia)創企(qi)的必經之路(lu)。
巖芯數(shu)智劉(liu)凡平(ping)相信,一定會有一個新的架構出現,來替代Transformer架構,這也遵循(xun)了(le)客(ke)觀(guan)規律。
《Attention is All You Need》作者(zhe)Aidan Gomez今年(nian)4月曾拋出類似的觀點(dian),這個(ge)世(shi)界需要比Transformer更好的架構(gou)(gou),我(wo)們(men)所有(you)人都(dou)希望它(ta)能(neng)(neng)被某種新(xin)架構(gou)(gou)所取代,將我(wo)們(men)帶(dai)到一個(ge)新(xin)的性能(neng)(neng)高原(yuan)。現在,我(wo)們(men)使用了過多的計算(suan)資(zi)源,也做了很多無用的計算(suan)。
劉凡(fan)平(ping)也(ye)曾嘗試(shi)開發過Transformer架構的(de)大模型,但(dan)他最終(zhong)發現這種思(si)路(lu)無法模擬(ni)人腦的(de)運行規則(ze),難以(yi)通(tong)向AGI的(de)終(zhong)極目(mu)標(biao)。
“AI模(mo)(mo)型(xing)最好的榜單不是評(ping)測專(zhuan)業能(neng)(neng)力(li)有多強,而是去評(ping)測學(xue)(xue)習能(neng)(neng)力(li)有多強。”劉凡平認為,傳統Transformer架構大(da)模(mo)(mo)型(xing)的發(fa)展模(mo)(mo)式類似于“造神”,模(mo)(mo)型(xing)參數(shu)量、算力(li)越(yue)卷越(yue)龐大(da),但卻(que)丟掉了自主學(xue)(xue)習能(neng)(neng)力(li)。
放在生(sheng)物(wu)圈(quan)中,如果說傳統Transformer架構是(shi)“一鯨落(luo)而(er)萬物(wu)生(sheng)”,那么(me)Yan架構則是(shi)沖不散的小魚(yu)群、遍布海底的珊瑚、隨波漂浮的微生(sheng)物(wu)。
用浙江大(da)學人工智(zhi)能(neng)系主(zhu)任、博士生導師楊(yang)洋的話來說,OpenAI致力于讓單(dan)只(zhi)螞蟻變得更聰(cong)明,而(er)巖芯數智(zhi)則是(shi)探索一個機制,讓螞蟻群體內的每只(zhi)螞蟻互相協作起來。
在(zai)AI向生物智能進化的途中,巖(yan)芯數智想要編織一張AI智能體(Agent)的大(da)網。嘗試多(duo)種(zhong)方法后,巖(yan)芯數智提(ti)出了在(zai)端(duan)側無(wu)損推理的兩大(da)核心技術,一是(shi)以底層神經網絡(luo)架(jia)構MCSD替代Transformer的Attention機制,二是(shi)基于仿(fang)生神經元驅動的選擇算法實現類腦分區激活。
這兩種機(ji)制能夠較(jiao)大(da)幅度地減少計算(suan)復雜度和算(suan)力消耗(hao),以低(di)(di)功耗(hao)、低(di)(di)成本(ben)驅(qu)動高(gao)性能。目前(qian),Yan架構多模(mo)態大(da)模(mo)型(xing)已經(jing)可以在樹莓(mei)派的(de)單板計算(suan)機(ji)上無(wu)損推(tui)理。
結語:群體智能是通向AGI的新路徑,腦科學能幫大忙
目前,包括申請中的(de)專(zhuan)利(li)在(zai)內(nei),巖芯數(shu)(shu)智已獲得海內(nei)外超50項AI相關的(de)技術專(zhuan)利(li)。在(zai)巖芯數(shu)(shu)智董(dong)事長陳(chen)代千看來(lai),AI技術將逐漸(jian)從(cong)云端集群(qun)走(zou)向(xiang)電(dian)源(yuan)設備,從(cong)集中式(shi)處理(li)走(zou)向(xiang)分布式(shi)智能。
未來(lai),AI的端側應用無需(xu)依賴(lai)大量(liang)的云服務,而(er)是在設(she)備(bei)終端本地執行數(shu)據處理,從而(er)有效降低數(shu)據的傳(chuan)輸時延和泄露風險(xian)。
中科院上海(hai)微(wei)系統所研究員、博(bo)士(shi)生導(dao)師李孟認為(wei),群體智(zhi)能(neng)對于(yu)當前階段的人(ren)工智(zhi)能(neng)(AI)發展非常重要(yao)。看到(dao)大模型性(xing)能(neng)真正落地各種(zhong)端側設備(bei)后,他感到(dao)很激(ji)動。
在巖芯(xin)數智CEO劉(liu)凡平(ping)看來(lai),群體智能(neng)單(dan)元大(da)模型的(de)研(yan)發與腦科(ke)學的(de)研(yan)究(jiu)有諸多相似(si)之處,都是AI與人(ren)腦的(de)結合研(yan)究(jiu),而巖芯(xin)數智也(ye)是國內率先把腦科(ke)學與AI大(da)模型兩者(zhe)商業化的(de)公(gong)司。
浙江大學人工智(zhi)能(neng)系主(zhu)任、博士生(sheng)導師楊洋也認(ren)可了腦科學對于AI技術的獨(du)特(te)價值。
在過往(wang)針對腦電大(da)模(mo)型的(de)(de)研發(fa)中,楊洋(yang)發(fa)現AI模(mo)型的(de)(de)泛化能(neng)(neng)(neng)力不(bu)足是腦電大(da)模(mo)型研發(fa)的(de)(de)一大(da)瓶頸。目前(qian)的(de)(de)腦電大(da)模(mo)型難(nan)以在不(bu)同(tong)的(de)(de)個體(ti)間通用,他認(ren)為,Yan架(jia)構大(da)模(mo)型或許(xu)能(neng)(neng)(neng)解決(jue)這一點,可以利用其大(da)幅提升腦電大(da)模(mo)型的(de)(de)泛化能(neng)(neng)(neng)力。
李孟補充道,這類似于生物學(xue)中神經(jing)元的(de)概念,要有(you)一個(ge)總的(de)神經(jing)中樞,才能有(you)效地控制(zhi)各(ge)個(ge)人體系統。
巖芯數智(zhi)董(dong)事長(chang)陳(chen)代(dai)千相信,最終所有用戶都(dou)通過(guo)各種端(duan)側(ce)應用和設備來調用AI模型,而每一個(ge)端(duan)側(ce)AI都(dou)是(shi)一個(ge)獨立的群體(ti)智(zhi)能單元,并且將(jiang)從整體(ti)上改(gai)變人(ren)類所掌控的物理(li)世界。