
智東西(公眾號:zhidxcom)
作者 | ZeR0
編輯 | 漠影
智東西1月16日報道,在今日舉辦的智譜AI技術開放日上,國內當前估值最高的AI大模型獨角獸智譜AI發布了新一代基座大模型GLM-4,性能(neng)比上一代提升接(jie)近60%,整體評測(ce)結果(guo)逼近GPT-4,支(zhi)持更(geng)長(chang)的(de)(de)上下文(wen)、更(geng)強的(de)(de)多(duo)模態、更(geng)快速(su)的(de)(de)推理、更(geng)多(duo)的(de)(de)并發(fa),大(da)大(da)降(jiang)低(di)推理成本,同時(shi)GLM-4也(ye)增強了其智能(neng)體(Agent)的(de)(de)能(neng)力。
智譜AI CEO張鵬稱,圍繞GLM預訓練框架,智譜AI形成了一個相對完整的大模型全棧技術體系架構,功能覆蓋多模態、代碼生成、搜索增強和對話,對標OpenAI的全棧大模型生態。
“我(wo)們(men)努(nu)力趕上,同時我(wo)們(men)也(ye)謙虛地承認(ren),自己還存在(zai)著一(yi)定的(de)差(cha)距,但不懈努(nu)力讓我(wo)們(men)開始逐(zhu)漸形成我(wo)們(men)自己的(de)創新的(de)特色,也(ye)借(jie)助于此逐(zhu)漸縮(suo)小與頂(ding)尖水平(ping)的(de)差(cha)距。”張鵬說。
除了帶來基座模型GLM-4之外,智譜AI還推出GLM-4 All Tools,實現了根據用戶意圖自動理解、規劃復雜指令,自由調用文生圖、代碼解釋器、網頁瀏覽、Function Call等多項工(gong)具來完(wan)成復(fu)雜任務。這意味著(zhu)GLM系列模型(xing)的全家桶能力實現工(gong)業(ye)化,開發者及用(yong)戶可以更輕松地使用(yong)GLM-4模型(xing),不再為提示詞而(er)擔心。
GLMs個性化智能體定制功能和智能體中心同時(shi)上線(xian)。基于(yu)GLM-4模(mo)型,用戶只(zhi)要登(deng)陸智(zhi)譜清言觀(guan)望,使用簡單的(de)(de)提(ti)示詞指令就能(neng)(neng)創建屬(shu)于(yu)自己的(de)(de)智(zhi)能(neng)(neng)體。在智(zhi)能(neng)(neng)體中心中,用戶可分享各(ge)種(zhong)智(zhi)能(neng)(neng)體。沒有編程基礎的(de)(de)用戶也(ye)能(neng)(neng)實(shi)現大模(mo)型的(de)(de)便捷開發。
有興趣體驗的用戶可登陸智譜清言官網或App。GLMs模型應用商店、開發者分成計劃也將同期公布。
GLM-4登陸了MaaS平臺,提供各式API訪問。同時,智譜AI邀請開發者參與GLM-4 Assistent API內測,并將為報(bao)名(ming)的小伙伴贈送千萬(wan)級token,也邀(yao)請大(da)家一(yi)起開發屬于自己的GLM應用。
從(cong)ChatGLM一代(dai)、二代(dai)、三代(dai)至(zhi)今,智譜AI幾乎(hu)開源了(le)所(suo)有內核(he)的模(mo)(mo)(mo)(mo)(mo)(mo)(mo)型,包括(kuo)千億基座模(mo)(mo)(mo)(mo)(mo)(mo)(mo)型、搜索(suo)(suo)增強模(mo)(mo)(mo)(mo)(mo)(mo)(mo)型、圖形理(li)解模(mo)(mo)(mo)(mo)(mo)(mo)(mo)型、代(dai)碼模(mo)(mo)(mo)(mo)(mo)(mo)(mo)型、文圖生成(cheng)模(mo)(mo)(mo)(mo)(mo)(mo)(mo)型、圖形增強理(li)解模(mo)(mo)(mo)(mo)(mo)(mo)(mo)型、可視化認(ren)(ren)知Agent模(mo)(mo)(mo)(mo)(mo)(mo)(mo)型。張(zhang)鵬希望這(zhe)些模(mo)(mo)(mo)(mo)(mo)(mo)(mo)型能夠幫助(zhu)大家深(shen)入認(ren)(ren)知大模(mo)(mo)(mo)(mo)(mo)(mo)(mo)型的技術,而(er)不(bu)是簡單的僅(jin)僅(jin)會用,進而(er)幫助(zhu)大家一起探索(suo)(suo)大模(mo)(mo)(mo)(mo)(mo)(mo)(mo)型技術的未來。
現場,張鵬還分享了智譜AI聯合發起的多個大模型基金,包括CCF-智譜大模型基金、SMP-智譜大模型交叉學科基金、大模型開源基金、10億元“Z計劃”創業基金,為(wei)大模型的相(xiang)關科研與早期創業提供資助。
一、GLM-4:性能逼近GPT-4,支持128k上下文,多模態能力升級
智譜(pu)AI新一代基(ji)座大模(mo)型GLM-4,整體(ti)大模(mo)型評測(ce)結果接近GPT-4。
在(zai)大規模多(duo)任務語言(yan)理解評(ping)測中,GLM-4得分遠超GPT-3.5,平均達到GPT-4的95%的水(shui)平,個別(bie)項目上(shang)已(yi)幾乎持平;在(zai)GSM8K數(shu)學(xue)評(ping)測數(shu)據(ju)集上(shang),GLM-4的評(ping)測結果(guo)與GPT-4有4.6%的差距;在(zai)MATH數(shu)據(ju)集上(shang),GLM-4得分比(bi)GPT-3.5多(duo)15%,比(bi)GPT-4少9%。
谷歌推(tui)出的(de)AI基準測(ce)試套件BBH可(ke)評估語(yu)言模(mo)型在各種復雜任務上(shang)的(de)性能,在這項(xiang)評測(ce)中,GLM-4得分遠超GPT-3.5,距離GPT-4只差不(bu)到1%;在OpenAI編寫發布的(de)代碼(ma)生成評測(ce)數據集(ji)HumanEval上(shang),GLM-4的(de)水平超過GPT-3.5和GPT-4。
在(zai)跨語言中(zhong)英文(wen)混合評測中(zhong),GLM-4在(zai)Prompt級別、中(zhong)文(wen)的成績(ji)達到GPT-4的88%。在(zai)指令跟(gen)隨方面,GLM-4的能力達到了GPT-4的90%,遠超GPT-3.5。
在中(zhong)文對齊能力方(fang)面(mian),智譜AI有一(yi)個(ge)單獨的(de)全(quan)面(mian)對標分(fen)析,包括公開的(de)AlignBench和(he)一(yi)個(ge)沒有公開的(de)內(nei)部(bu)的(de)測試數據集。在AlignBench上,總體GLM-4得分(fen)超(chao)過(guo)了GPT-4 6月13日發布(bu)版本,逼近最(zui)新的(de)GPT-4 Turbo版本效(xiao)果,在專業(ye)能力、中(zhong)文理(li)解(jie)、角(jiao)色(se)扮演等方(fang)面(mian)甚至(zhi)超(chao)過(guo)最(zui)新GPT-4的(de)進(jin)度(du),在中(zhong)文推(tui)理(li)方(fang)面(mian)則還需進(jin)一(yi)步提升和(he)加強。
GLM-4可支持128k上下文窗口,單次提示可處理300頁文本。同時,其技術(shu)團隊解決了上下(xia)文全局信息(xi)因失(shi)焦(jiao)而導致的精(jing)度下(xia)降問題,在“大(da)海撈針”測試中,GLM-4模(mo)型能做到幾(ji)乎100%的精(jing)準召(zhao)回。
多模態方面,GLM-4的文生圖和多模態理解都得到進一步加強,推出全新的CogView3,效果(guo)超過開源的SDXL模型,逼(bi)近OpenAI的DALL·E 3。在對(dui)齊、保真、安全、組合(he)布局等各個評(ping)測維度上(shang),CogView3都做到DALL·E 3 90%以上(shang)的水平(ping),平(ping)均可以達到95%的相對(dui)性能。
CogView3能夠很(hen)好地生成手部(bu)圖像,其語義能力也進一步(bu)增強,可準(zhun)確(que)理(li)解(jie)“魚眼(yan)鏡頭”這(zhe)樣容易被機器(qi)會錯意(yi)的概念,對顏色、場景、空間(jian)位置(zhi)的理(li)解(jie)也都很(hen)準(zhun)確(que)。
使用GLM-4V開源模型,你可(ke)以做(zuo)很多有意思(si)的事(shi)情,比如給(gei)定一(yi)個截圖(tu)的網頁表格,讓(rang)它轉化(hua)成markdown格式,這樣就(jiu)能直接(jie)復制粘(zhan)貼到需要用(yong)到的地方。輸(shu)入一(yi)張繪(hui)畫,它也(ye)能準確理解圖(tu)中(zhong)所(suo)表達的信息。
智譜AI最近還提出了CogAgent模型,通過UI截圖(tu)輸入來理解(jie)圖(tu)中的(de)(de)每一(yi)(yi)處信息(xi),根據用戶提問告知(zhi)下(xia)一(yi)(yi)步完成相應的(de)(de)任務需要(yao)點擊哪里,或者(zhe)做出怎(zen)樣的(de)(de)操作。這(zhe)是(shi)智(zhi)譜將(jiang)(jiang)來會著(zhu)重(zhong)投入的(de)(de)方向:從多模態走向智(zhi)能(neng)助手,讓機器能(neng)直接理解(jie)屏幕上的(de)(de)文字、圖(tu)像和信號,不(bu)需要(yao)轉化成一(yi)(yi)個個token輸入到模型中,如果能(neng)完成這(zhe)樣一(yi)(yi)件(jian)事,將(jiang)(jiang)極大解(jie)放勞動力。
智(zhi)譜AI希望未來讓CogAgent理解各種(zhong)屏(ping)幕,例如手機屏(ping)幕或(huo)其他的知(zhi)識和圖表,用多模(mo)態改變人(ren)們的生活(huo)。其團隊預測,多模(mo)態模(mo)型可能在1~2年內能夠全(quan)面(mian)超(chao)越(yue)人(ren)類的視(shi)覺識別(bie)能力(li)。
二、GLM-4 All Tools全家桶、GLMs智能體中心上線!不會編程也能定制專屬Agent
針對令許多開發者及普通用戶犯難的“AI咒語”提示詞問題,智譜AI推出GLM-4 All Tools全家桶。
GLM-4 All Tools實現了根據用戶意圖自動理解、規劃復雜指令,自動調用文生圖、代碼解釋器、網頁瀏覽、Function Call等功(gong)能,組合起來完成復(fu)雜任(ren)務(wu)。
只需輸入一個指(zhi)令,GLM-4就會(hui)自動(dong)分(fen)析指(zhi)令,結合上下文選擇決(jue)定調用(yong)合適的(de)工(gong)具。這(zhe)也是OpenAI近期推出的(de)GPTs的(de)一項基礎能(neng)力。
張鵬說,這意味(wei)著GLM系列模型的(de)全(quan)家桶能力終于實現(xian)了,開發者和用戶可以更(geng)輕松地使用GLM-4的(de)模型,不再為提示(shi)詞而擔心。
以文生圖為例(li),輸(shu)入“畫一個卡通柯(ke)基”的(de)提示(shi),再在后續(xu)新(xin)增“它(ta)(ta)開(kai)始跑(pao)步了”、“一只小兔子加入它(ta)(ta)一起”、“它(ta)(ta)跑(pao)的(de)越(yue)(yue)來越(yue)(yue)快了”等一連(lian)串追加的(de)提示(shi)詞,CogView3能準確接(jie)收(shou)用戶(hu)的(de)意思,實現故(gu)事化(hua)的(de)自動連(lian)續(xu)生成,語義非常準確。
現場還演(yan)示了(le)讓GLM-4畫出滿足讓柯基(ji)狗“給它(ta)讀很多書 變(bian)聰(cong)明(ming)”、“讓它(ta)學習使用電腦”等(deng)提(ti)示詞(ci)的(de)(de)(de)圖像(xiang),美中(zhong)不足的(de)(de)(de)是在演(yan)示時,每次圖像(xiang)生成(cheng)的(de)(de)(de)等(deng)待時間(jian)有(you)點長(chang)。
同樣,GLM-4能自動調用代碼解釋器進(jin)行(xing)復雜(za)方程或微分(fen)積分(fen)的求解,對(dui)比GSM8K、MATH和Math23K這三個(ge)數據集(ji)上的測試(shi)結果,GLM-4取(qu)得(de)了(le)與GPT-4相當的性能。
GLM-4通過自(zi)動(dong)調用Python解(jie)(jie)釋(shi)器,自(zi)動(dong)寫出求(qiu)解(jie)(jie)的(de)代(dai)(dai)碼(ma)(ma),然后(hou)運行求(qiu)解(jie)(jie)。加(jia)入代(dai)(dai)碼(ma)(ma)解(jie)(jie)釋(shi)器后(hou),輸出的(de)不(bu)僅(jin)僅(jin)是(shi)文本和代(dai)(dai)碼(ma)(ma),也可以是(shi)圖像文件等。
除了解決數據問題外,GLM All Tools能力完全自動化,可以完成文件處理、數據分析、圖表繪制等一系列復雜(za)任(ren)務。可處(chu)理的(de)文件(jian)類型包(bao)括常見的(de)Excel、PDF、PPT等格式。
還有自動網頁瀏覽,GLM-4模(mo)型(xing)可(ke)根據任務(wu)自(zi)行(xing)規(gui)劃(hua)檢索任務(wu),自(zi)行(xing)選擇信息源,自(zi)行(xing)與(yu)信息源交互(hu)。
比如告(gao)訴模型你(ni)(ni)要參加某個大(da)會(hui),向(xiang)它詢問(wen)當地天氣狀況(kuang),但并沒(mei)有告(gao)訴它大(da)會(hui)在(zai)哪里(li)舉(ju)行,這時它會(hui)自動(dong)檢索大(da)會(hui)日期和(he)地點(dian),然后告(gao)訴你(ni)(ni)準確(que)的答案。
“GLM-4 All Tools的(de)網頁瀏覽(lan)準確率已經(jing)超過了GPT-4,值得我(wo)們的(de)自豪。”張鵬說(shuo)。
在多跳式問答的復雜場景中,僅通過一次檢索可能無法檢測到有效信息,此時傳統檢索生成方法就存在較大的局限性。而GLM-4 All Tools的高級聯網功能,使得模型的(de)自主(zhu)信息收集能(neng)(neng)力變(bian)得更強(qiang)大。據介紹(shao),其方案相(xiang)比GPT-4的(de)Web browsing功(gong)能(neng)(neng)也有比較明(ming)顯(xian)的(de)優(you)勢。
Function Call方面,GLM-4 All Tools可(ke)根據用(yong)戶提供的(de)function描(miao)述,自動選(xuan)擇所需function生成參數(shu),并根據function的(de)返回(hui)值(zhi)生成回(hui)復,支(zhi)持一次輸入進行多次function的(de)調(diao)用(yong),和支(zhi)持包含(han)中文以及特殊符號命名的(de)function的(de)調(diao)用(yong)。這(zhe)方(fang)面的(de)能力(li)與GPT-4已基(ji)本持平(ping),而且在(zai)中文理(li)解(jie)上(shang)更強,英(ying)文能力(li)稍(shao)差(cha),總體上(shang)達到持平(ping)。
來看一個多工具自動調用的(de)例(li)子,比如可以問(wen)它(ta)智譜DevDay的(de)宣傳(chuan)語(yu)(yu),讓它(ta)畫一(yi)幅突(tu)出宣傳(chuan)語(yu)(yu)的(de)場景圖,模型自(zi)動進行搜索,找到(dao)一(yi)些相(xiang)關發布的(de)頁面,從中總(zong)結和識別(bie)宣傳(chuan)語(yu)(yu)內(nei)容,進而生成一(yi)張能還原宣傳(chuan)語(yu)(yu)意境的(de)圖片(pian)。
再來(lai)看另一個例子。GLM-4可(ke)查詢過去10年(nian)中的(de)全(quan)球(qiu)GDP數據并(bing)進行(xing)(xing)直觀展示,它能(neng)(neng)識別語義并(bing)聯(lian)網,對多個數據源(yuan)進行(xing)(xing)檢索,生(sheng)成一段代碼,把找到的(de)數據可(ke)視化,生(sheng)成一張簡單的(de)圖表。只(zhi)要(yao)一句簡單的(de)輸入,就能(neng)(neng)啟動(dong)聯(lian)網搜索、提取代碼解(jie)釋器、繪圖等(deng)多項模型原生(sheng)能(neng)(neng)力。
還可以(yi)讓GLM-4搭建(jian)一個(ge)多(duo)項(xiang)式回(hui)歸(gui)預(yu)測模型,預(yu)測未來5年全(quan)球GDP的發(fa)(fa)展(zhan)態勢,并把預(yu)測結果以(yi)紅色的標記加入到原(yuan)有的圖(tu)表中(zhong),以(yi)便(bian)更加直觀地看到發(fa)(fa)展(zhan)趨勢。
“GLM-4的(de)(de)權限提升,使得我(wo)們有機會探索真(zhen)正意(yi)義上的(de)(de)GLMs。”張鵬說,登陸智譜(pu)清言官網或App,智譜(pu)AI已經為大家預設了一個智譜(pu)DevDay智能體(ti),你可以自己(ji)上手體(ti)驗,詢問(wen)一些跟今天大會相關的(de)(de)事宜,比如日程(cheng)、有哪些主題演講(jiang)、演講(jiang)PPT文件下載鏈接(jie)等等。
創(chuang)建這(zhe)樣一個簡單的智能體(ti),只需要3分鐘,把大會的會議日程、嘉賓(bin)信息(xi)當作外部輸(shu)入知識放進知識庫,就(jiu)能自(zi)動(dong)生(sheng)成智能體(ti)。
以后大家自己組(zu)織活動,也可以來定制一個這樣(yang)的智能(neng)體(ti),讓智譜清言幫你與參會者進行溝通。
接著,張鵬宣布,GLMs個性化智能體定制能力上線。
基于GLM-4模型,用(yong)(yong)(yong)戶只要登陸智(zhi)譜清言官網,用(yong)(yong)(yong)簡單的(de)提示詞指令(ling)就能(neng)創建屬(shu)于自(zi)己的(de)智(zhi)能(neng)體(ti)。在其智(zhi)能(neng)體(ti)中(zhong)心中(zhong),用(yong)(yong)(yong)戶可分享自(zi)己創建的(de)各(ge)種智(zhi)能(neng)體(ti)。
張鵬說,GLM模(mo)(mo)型智能(neng)(neng)體的(de)推(tui)出,標志著任何(he)人都能(neng)(neng)夠自由(you)運用GLM-4模(mo)(mo)型并挖掘其潛力,即使沒有(you)任何(he)編程語言的(de)基礎,也能(neng)(neng)夠實現大模(mo)(mo)型的(de)便捷開發(fa),這也是智譜AI擴大大模(mo)(mo)型開發(fa)者社區生態(tai)的(de)一次進(jin)步。
三、發起多個大模型基金,支持科研與創業探索
張鵬談道,智譜AI源自清華科技成果轉化,非常重視科研突破和源頭創新,也希望無私回饋科研界,因此聯合CCF中國計算機學會,發起CCF-智譜大模型基金,圍繞預訓(xun)練大模型的理論、算(suan)法(fa)、模型應(ying)用等相(xiang)關(guan)的研究提(ti)供資助。
與此同時,智譜AI聯合中國中文信息學會、社會媒體處理專委會聯合發起了SMP-智譜大模型交叉學科基金,支持(chi)探(tan)索大模(mo)(mo)型(xing)與各領(ling)域交叉的創新,促進(jin)大模(mo)(mo)型(xing)與各類(lei)學(xue)科的有機的融合。
所有科研基(ji)金參與者(zhe)擁有自己(ji)研發(fa)的知識(shi)產權(quan)。這兩(liang)支基(ji)金在(zai)2023年為來(lai)自全國30余(yu)所高校參與的41個研究項目累計(ji)提供(gong)了超過1000萬元現(xian)金和算(suan)力資源(yuan)的科研支持,學者(zhe)們的學科背景也(ye)豐(feng)富多元。張鵬相信(xin),學術創(chuang)新是中國大模型事業(ye)持續發(fa)展創(chuang)新的原動(dong)力之(zhi)一。
2024年,面向開源社區,智譜AI發起大模型開源基金,旨(zhi)在推(tui)動大模(mo)型研發的發展,促(cu)進(jin)大模(mo)型開源生(sheng)態的繁榮。
該開源基金可用3個“1000”來概括:第一個“1000”是智譜將為大模型開源社區提供1000張卡,助力開源開發;第二個“1000”是智譜將提供1000萬元現金來支持大模型相關開源項目;第三個“1000”是智譜將為優秀的開源項目開發者提供1000億免費API的tokens。
張鵬說,中國人工智能事業的繁榮發展需要產業鏈上下游、合作伙伴、開發者社區和學術界所有參與者一同努力。面向全球,智譜AI與生態伙伴聯合設立并發布10億元“Z計劃”創業基金,支(zhi)持大(da)(da)模型早期創(chuang)業(ye)者的創(chuang)新探(tan)索,覆蓋大(da)(da)模型算法、底(di)層算子、芯(xin)片優(you)化、行(xing)業(ye)大(da)(da)模型、超(chao)級(ji)應用(yong)等各方面(mian)。
此前(qian)智譜AI已(yi)向相關企(qi)業投入數億元人民幣,支持了數十(shi)家企(qi)業,比如面壁智能(neng)是國內最(zui)早(zao)從事也是最(zui)懂Agent的大模型公司(si),基流科技(ji)曾有過上萬張GPU卡集群建(jian)設(she)的項目(mu)經驗。
四、堅守開源,已擁有2000多家合作伙伴
回(hui)首來時(shi)路(lu),張(zhang)鵬(peng)說,智譜AI成立于(yu)2019年,從(cong)(cong)清華園走出,當時(shi)才20多人,立下「讓機器像人一樣(yang)思考」的愿(yuan)景。從(cong)(cong)探索算法到開始(shi)訓練(lian),從(cong)(cong)十億(yi)、百(bai)億(yi)到千億(yi)級(ji)模(mo)型(xing),再到逐步實現產(chan)業(ye)化應用落(luo)地,智譜一路(lu)走到今(jin)天。
回顧大(da)模型過往(wang)發展歷程,2017年,谷歌提(ti)出Transformer機器學習(xi)模型架(jia)構,這成為自然語言處(chu)理(NLP)等相關(guan)研(yan)究的主要方法(fa)。
2018~2020年(nian)是大(da)(da)模型算(suan)法(fa)創(chuang)新階段(duan)(duan),先后出(chu)現了(le)BERT、GPT、T5等基于無標注數據自(zi)監督學習的(de)大(da)(da)規(gui)模訓練模型算(suan)法(fa),這(zhe)些算(suan)法(fa)模型擁有較(jiao)大(da)(da)規(gui)模的(de)參數,具(ju)備了(le)較(jiao)強的(de)通用化能力,可完成(cheng)多(duo)場景任務,顯著降低學習成(cheng)本,提升了(le)學習效率。智譜也在這(zhe)一階段(duan)(duan)研發了(le)自(zi)己的(de)算(suan)法(fa)。
2020年~2022年是一場模(mo)型(xing)之(zhi)戰,基于(yu)預訓練模(mo)型(xing)框架和開(kai)源項目,各種模(mo)型(xing)如雨后春筍般誕生(sheng)。2020年的GPT-3擁有1750億(yi)(yi)個參數(shu),可以視作該階段的起(qi)點,開(kai)啟(qi)了基座模(mo)型(xing)的全(quan)新時代。隨(sui)后全(quan)球(qiu)掀起(qi)一股大(da)模(mo)型(xing)研究(jiu)和研發熱潮(chao)。智譜(pu)AI在2022年開(kai)源了千億(yi)(yi)級基座模(mo)型(xing)GLM-130B,這一工作吸(xi)引了全(quan)世界的關注。
2023年(nian),大模型開(kai)始火出(chu)圈,在金融、能源、教育等眾多行業開(kai)始落地(di),被公眾廣為所知,智譜AI聯(lian)合合作伙伴實現廣泛的(de)商業應用(yong)落地(di)。基于(yu)GLM-130B研發的(de)ChatGLM-130B,是當時(shi)國內最先可線(xian)上使用(yong)的(de)千億級(ji)Chat模型。
張鵬坦言,和國外大模型相比,國內的大模型發展起步晚了一些,加上高性能算力限制、數據質量的差距等,國內大模型在規模和核心能力上都與世界先進水平存在一定差距,這樣的差距大約在一年左右。
今天,智譜AI交(jiao)出了新的階段性答卷,也希望以此為起點,未來(lai)瞄向通(tong)用人工(gong)智能(AGI)。
張鵬說(shuo),智譜GLM系(xi)列模(mo)型基本對標(biao)OpenAI的GPT系(xi)列模(mo)型,但更加(jia)開放,所有(you)模(mo)型和技術細節都進行(xing)了論文發表和開源。在(zai)(zai)斯坦福大學對全球30多個大模(mo)型的評測報告中,智譜GLM-130B是亞洲唯一(yi)入選的模(mo)型,在(zai)(zai)準確性(xing)、公平性(xing)等指標(biao)上接近GPT-3,在(zai)(zai)魯棒性(xing)、校準誤差、無偏性(xing)等指標(biao)上優(you)于GPT-3。
2023年ChatGLM經歷(li)了3個(ge)版本(ben)的(de)迭代(dai)(dai),逐步具備多模(mo)態(tai)理解(jie)、代(dai)(dai)碼解(jie)釋、網絡搜索(suo)增強等新功能,智譜不(bu)僅開(kai)發(fa)了其(qi)最大的(de)模(mo)型(xing)商(shang)用版本(ben),也有(you)開(kai)源(yuan)(yuan)版本(ben),ChatGLM-6B開(kai)源(yuan)(yuan)模(mo)型(xing)迄(qi)今(jin)全(quan)球下載量累(lei)計超(chao)過千萬(wan),在開(kai)源(yuan)(yuan)趨勢榜單上排名超(chao)過Meta Llama大語言模(mo)型(xing)。
去年,智譜(pu)AI團(tuan)隊獲得了(le)Hugging Face全(quan)球最受歡(huan)迎的(de)(de)開(kai)(kai)源(yuan)機構(gou)(gou)排行(xing)榜(bang)第五名,超過OpenAI、谷歌、微軟,是國(guo)內唯一(yi)上榜(bang)的(de)(de)機構(gou)(gou)。開(kai)(kai)發者們在(zai)智譜(pu)的(de)(de)開(kai)(kai)源(yuan)模(mo)(mo)型(xing)上開(kai)(kai)發出了(le)600多項(xiang)(xiang)優秀(xiu)的(de)(de)大(da)模(mo)(mo)型(xing)應用(yong)開(kai)(kai)源(yuan)項(xiang)(xiang)目。
在商業化(hua)成績方(fang)面,智譜(pu)AI在市場上率先提出了MaaS商業化(hua)路徑,并詳細針對不同類型客(ke)戶群體的(de)(de)需求,提供開放(fang)的(de)(de)API云端私(si)有(you)化(hua)和(he)本地私(si)有(you)化(hua)等多種商業解決方(fang)案。迄今GLM系列模型已擁有(you)2000多家(jia)合作伙伴,其中有(you)200多家(jia)企(qi)事業單位與智譜(pu)AI進行了深度的(de)(de)模型共(gong)創(chuang)共(gong)建。
結語:AGI元年伊始,但路還很長
“人工(gong)智(zhi)能(neng)大模型已經成(cheng)為國際科(ke)技競爭(zheng)的(de)(de)必爭(zheng)之(zhi)地(di),實現國產(chan)的(de)(de)全資源(yuan)自主可控的(de)(de)人工(gong)智(zhi)能(neng)技術模型,也是迫(po)在眉(mei)睫的(de)(de)任務(wu)。”張鵬談道。
在他看來,大(da)模(mo)(mo)型的(de)(de)(de)快(kuai)速發展給全球科技創(chuang)新(xin)帶來全新(xin)挑戰,超大(da)規模(mo)(mo)的(de)(de)(de)算力需(xu)求(qiu)、超大(da)規模(mo)(mo)的(de)(de)(de)數(shu)據需(xu)求(qiu)、全新(xin)的(de)(de)(de)模(mo)(mo)型訓(xun)練算法框架(jia)安全與可行(xing)的(de)(de)(de)軟硬件的(de)(de)(de)系統,大(da)模(mo)(mo)型的(de)(de)(de)應用需(xu)求(qiu)也更(geng)加動態和(he)多(duo)樣(yang)化(hua),要(yao)求(qiu)對大(da)模(mo)(mo)型的(de)(de)(de)不同層(ceng)次進(jin)行(xing)更(geng)深入的(de)(de)(de)研究。這是個全新(xin)的(de)(de)(de)AI科學難題,但也是一個我們趕超國際(ji)領先水平(ping)的(de)(de)(de)機會。
2024年(nian)是AGI的(de)元(yuan)年(nian),但路還(huan)很長。張鵬說,今(jin)天智譜(pu)將心目中的(de)AI未來(lai)呈(cheng)現在大家面前(qian)。在2024年(nian)乃至更長遠的(de)未來(lai),智譜(pu)AI將堅(jian)持更開放(fang)的(de)心態(tai),團結更廣泛的(de)合作伙伴,共創AI未來(lai)。