智東西(公眾號:zhidxcom)
作者|依婷
編輯|漠影

智東西12月(yue)(yue)5日報道,2022年ChatGPT面世即(ji)萬眾矚(zhu)目(mu),又在兩(liang)個月(yue)(yue)內獲得了(le)1億(yi)注冊用(yong)戶,點燃(ran)了(le)大(da)(da)眾對AI的期待(dai),也(ye)讓業界看到了(le)AI大(da)(da)模型技術廣泛的應用(yong)前景。

兩年間,AI大(da)模(mo)(mo)(mo)(mo)型(xing)如雨(yu)后春筍般涌現。中(zhong)國信通(tong)院數據顯示(shi),截(jie)至2024年7月,全球AI大(da)模(mo)(mo)(mo)(mo)型(xing)數量為1328個(包含(han)同(tong)一企業、同(tong)一模(mo)(mo)(mo)(mo)型(xing)的不同(tong)參(can)數版(ban)本(ben)),中(zhong)國大(da)模(mo)(mo)(mo)(mo)型(xing)數量占比(bi)36%。行(xing)業對模(mo)(mo)(mo)(mo)型(xing)的研(yan)發和應用也(ye)已(yi)經從(cong)最開始的大(da)語言模(mo)(mo)(mo)(mo)型(xing),走到了多(duo)模(mo)(mo)(mo)(mo)態(tai)模(mo)(mo)(mo)(mo)型(xing)。而算力(li)、網絡等AI大(da)模(mo)(mo)(mo)(mo)型(xing)賴(lai)以生(sheng)存(cun)和發展的基礎設施,仍需(xu)要不斷優化。

在中國(guo)大(da)模型(xing)進入所(suo)謂“洗牌年”的(de)節(jie)點(dian)上,昨日(ri),智東西等媒體(ti)和中國(guo)AI大(da)模型(xing)獨(du)角獸MiniMax副總裁劉華、騰訊云(yun)北區云(yun)原生(sheng)總經理田(tian)豐(feng)進行了交流。他們從雙(shuang)方公(gong)司的(de)合作出發,談及了算力、網絡對AI大(da)模型(xing)落地應用帶(dai)來的(de)影響。

一、多模態大模型期待更有性價比的算力

MiniMax成立于2021年12月,是“國產(chan)大(da)(da)模(mo)型六(liu)小虎(hu)”之一,自主研發了(le)包括萬億(yi)參數的MoE文本(ben)大(da)(da)模(mo)型、語(yu)音(yin)(yin)和(he)音(yin)(yin)樂大(da)(da)模(mo)型、圖像大(da)(da)模(mo)型、視頻大(da)(da)模(mo)型在內的多模(mo)態通用大(da)(da)模(mo)型。

成立至今三年,基于不同模(mo)態的(de)通(tong)用大模(mo)型,MiniMax推出(chu)了智能(neng)助手“海螺(luo)AI”、AI內容社(she)區“星野”“Talkie”等C端應用;MiniMax開放平臺則為企業和開發者提供API服務。

采訪(fang)中(zhong),劉華從AI大(da)模型(xing)公(gong)司的角度出(chu)發,談到了多模態大(da)模型(xing)應(ying)用(yong)過程(cheng)中(zhong)不(bu)斷提高的算(suan)力成(cheng)本問題。

他(ta)說,以往的(de)大(da)(da)模(mo)型處(chu)(chu)理(li)的(de)是文(wen)本任(ren)務(wu),現在的(de)大(da)(da)模(mo)型處(chu)(chu)理(li)的(de)是語音(yin)任(ren)務(wu)、視(shi)頻任(ren)務(wu);用token來(lai)計算的(de)話(hua),一(yi)(yi)個小視(shi)頻的(de)tokens比一(yi)(yi)篇文(wen)章的(de)tokens高出(chu)太(tai)多。如果要讓新的(de)技術(shu)落(luo)地、讓更多的(de)企業或個人能夠接受新技術(shu),就必須確保大(da)(da)模(mo)型能夠以非常有性價(jia)比的(de)方(fang)式處(chu)(chu)理(li)大(da)(da)規模(mo)的(de)輸入或輸出(chu)。

二、大集群并不等于大算力,要優化資源利用率

自MiniMax成立(li)以(yi)來,騰訊云就與(yu)其(qi)建立(li)了合作關系,為其(qi)提供算(suan)力、網絡(luo)等基礎設施支持(chi)。田豐形容兩家(jia)公(gong)司“是(shi)一(yi)起手牽手走到(dao)今天”,在大模型(xing)的(de)(de)發(fa)展過(guo)程(cheng)(cheng)中(zhong),“一(yi)起去解決難(nan)題(ti),是(shi)雙向奔(ben)赴的(de)(de)一(yi)個過(guo)程(cheng)(cheng)”。

站在云服務廠(chang)商(shang)的(de)視(shi)角(jiao),田豐分享了這(zhe)兩(liang)三(san)年(nian)來自(zi)己(ji)對客戶(hu)需求變(bian)化的(de)觀察。

他說,大模(mo)型公司客戶早(zao)期可(ke)能需要(yao)的是千卡集群,現(xian)在可(ke)能都是要(yao)上萬卡,后續可(ke)能會到十萬卡,“這個(ge)規(gui)模(mo)對我們的組網的能力、集群的運維,都是一個(ge)非常大的、全新(xin)的挑戰(zhan),跟原來完(wan)全是不一樣的”。

田豐(feng)拿“網絡”舉例。他稱(cheng),訓(xun)練(lian)萬億(yi)參數的(de)大模型(xing)時,傳(chuan)統的(de)網絡協議(yi)容易(yi)造成擁堵、高延時。在這(zhe)個過程中(zhong),0.1%的(de)丟包(bao)率(lv)都會(hui)(hui)導致(zhi)50%的(de)續(xu)訓(xun)效率(lv)的(de)下降;中(zhong)斷恢復之后,需(xu)要(yao)從上一個續(xu)訓(xun)點繼續(xu)訓(xun)練(lian)模型(xing),這(zhe)會(hui)(hui)給萬億(yi)規模的(de)模型(xing)訓(xun)練(lian)造成非常大的(de)損失。

另外,田豐還提到,大(da)集群并不等于大(da)算力(li),算力(li)不是(shi)靠(kao)簡(jian)單地(di)“堆”出來的(de),而是(shi)需要(yao)大(da)量優(you)化(hua)和調整GPU資源(yuan)的(de)利用率,以及網絡傳(chuan)輸通訊(xun)的(de)效率。

結語:大模型開啟淘汰賽,技術最終要盈利去賺錢

整(zheng)整(zheng)兩年時間,生(sheng)成式(shi)AI走過通(tong)用(yong)基座大模(mo)(mo)型的(de)“百模(mo)(mo)大戰”與“價格戰”,面臨(lin)落地(di)應(ying)用(yong)與商業化檢(jian)驗。多模(mo)(mo)態模(mo)(mo)型的(de)研(yan)發和優化依舊在緊鑼密(mi)鼓(gu)地(di)進(jin)行,應(ying)用(yong)落地(di)并成功跑(pao)出商業模(mo)(mo)式(shi)也不可或缺。

AI大(da)(da)模型(xing)(xing)(xing)行業或許已(yi)進入(ru)淘汰賽(sai)階段,算力、技術、產品(pin)都(dou)成為(wei)競爭要(yao)素。中國大(da)(da)模型(xing)(xing)(xing)“洗(xi)牌年(nian)”,大(da)(da)模型(xing)(xing)(xing)公司和云服務廠商們都(dou)在打起精(jing)神。

可(ke)能就像是田豐(feng)在采(cai)訪中說的:“實踐是檢驗AI的唯一標準。AI大模型是長跑,投資人和(he)創業(ye)者都需要有信心和(he)耐心,炫(xuan)酷的技術最(zui)終還是要落(luo)實到商業(ye)化本身,要盈利去賺錢。”