
智東西(公眾號:zhidxcom)
編譯 | 風衣
編輯 | Panken
智東西1月2日消息,近日,《福(fu)布斯》做(zuo)出了2025年(nian)AI發展的(de)十大預測。
AI模型開發方面:
其一,Scaling laws會被廣泛應用于機器人技術和生物學領域(二);
其二,AI語音模型通過圖靈測試,可以在對話中冒充人類(六);
其(qi)三,AI實現(xian)自主迭代,自行(xing)研發新AI,完成從觀點、實驗、論文、評審的全過程(cheng)(七(qi));
AI應用開發方面:
其一,Meta將對企業使用Llama收費(一);
其二,AI web agent應用將大殺四方,代替消費者完成線上事務(四);
其三(san),重要的(de)AI研發(fa)機構,如OpenAI,將從開(kai)發(fa)基礎模型轉向開(kai)發(fa)應(ying)用,在AI商(shang)業化中分一杯羹(八);
其他預測:
其一、特朗普和馬斯克將分道揚鑣,這將對OpenAI、xAI的發展以及AI安全政策造成影響(三);
其二,將有一批企業嘗試在太空中建立AI數據中心,試圖解決AI發展的能源限制(五);
其三,至少在美國五個大城市中,無人駕駛出租車會占據網約車兩位數的市場份額(九);
其四(si),AI做出不(bu)符合人(ren)類意圖的行為,AI安全事(shi)件引(yin)發人(ren)機(ji)關系再(zai)思考(十)。
一、Meta將開始對Llama模型收費
Meta是全球開源AI的領軍者。在企業戰略方面,Meta提供的Llama模型免費開放,而像OpenAI和Google的前沿模型都是閉源、付費的。相較之下,Meta的策略是一個非常有趣的研究案例。因此,如果明年Meta開始對公司使用Llama收(shou)費(fei),很(hen)多人都(dou)會很(hen)驚(jing)訝。
需要明確的是,這并不是說Meta會讓Llama完全閉源,也不是說所有使用Llama模型的人都必須為此付費。相反,預計Meta會進一步嚴格Llama的開源許可條款,讓(rang)那些(xie)出(chu)于商(shang)業(ye)目(mu)的、大規模(mo)(mo)使用Llama的公司需要付費(fei)才能訪問Llama模(mo)(mo)型。
從實操來(lai)看,Meta現(xian)在已經在做(zuo)類似的(de)事情,它目前不允許一(yi)些(xie)超(chao)大型公(gong)司自由使用Llama模(mo)型,比如(ru)云計(ji)算巨頭和其他擁(yong)有超(chao)過7億(yi)月活躍用戶(hu)的(de)公(gong)司。
在2023年,Meta的CEO馬克·扎克伯格曾說過:“如果你是像微軟、亞馬遜或谷歌這樣的公司,并且基本上就是要轉售Llama,那我們認為Meta應該從中獲得一部分收入。在我看來,這在短期內并不會帶來大量收入,但從長期來看,這種方式有可能成為Meta的收入來源之一。”
明(ming)年,Meta將大幅(fu)擴大要為(wei)Llama付費的(de)公(gong)司(si)范圍(wei),涵蓋(gai)更(geng)多的(de)大型和中型企業。
為什么Meta會做出這樣的(de)戰略轉變?因為在(zai)(zai)激烈的(de)競爭(zheng)中,想(xiang)要將大(da)語言模型保持在(zai)(zai)發(fa)展前(qian)沿,成(cheng)本非常高。如(ru)果(guo)Meta希望(wang)Llama與OpenAI、Anthropic等公司最新前(qian)沿模型保持在(zai)(zai)一個水(shui)平,那(nei)每年(nian)需要投入數十(shi)億美(mei)元。
雖然Meta是全球最大、最有財力的公司之一,但它同時也是一家上市公司,最終還是要對股東負責。隨著發展AI模型的成本飛漲,Meta若不從(cong)中獲(huo)得收(shou)益,將很(hen)難繼續承擔如此(ci)巨額的開支來訓練下一代Llama模型。
業余愛好者、學者、個人開發者和初創公司明(ming)年仍(reng)然可(ke)以免費使用(yong)Llama模型(xing)。但是,2025年將(jiang)是Meta認(ren)真開始(shi)通過Llama實現盈利的(de)一(yi)年。
二、Scaling laws將被進一步應用于大語言模型之外的領域,特別是在機器人技術和生物學領域
最近幾周,AI領域討論最多的話題之一就是Scaling laws,以及這一定律是否正在失(shi)效。
Scaling laws最早于2020年在OpenAI的(de)論文中被提出(chu),其基本概念非(fei)常簡單:在訓練AI模型(xing)時,隨(sui)著模型(xing)參數(shu)數(shu)量(liang)、訓練數(shu)據(ju)量(liang)和計算量(liang)的(de)增加,模型(xing)的(de)表現(嚴格地說,是測(ce)試損失(test loss)的(de)減少)會以(yi)一種可(ke)(ke)靠且可(ke)(ke)預測(ce)的(de)方式得到改善。Scaling laws是從GPT-2到GPT-3再到GPT-4的(de)表現飛(fei)躍(yue)的(de)根本原因(yin)。
與摩爾定律(Moore’s Law)類似,Scaling laws并不是真實的自然法則,而只是經(jing)驗性的觀察。在過去一個月(yue)當(dang)中,一系(xi)列(lie)報(bao)(bao)道表明,目前主要的(de)AI研發機(ji)構在繼續擴(kuo)展大語言模型(xing)時,正面臨著(zhu)回(hui)報(bao)(bao)遞減的(de)現象。這也可以解釋為什(shen)么OpenAI的(de)GPT-5發布不斷推遲。
對于Scaling laws的回報趨于平緩這一現象,最常見反對觀點是:將測試時(shi)計算(test-time compute,指大語言模型生成響應時使用的計算資源)引入模型測試這一做法開辟了一個全新的維度。也就是說,相較于前代模型完全依靠在預訓練中擴大模型參數量來改善表現,像OpenAI的o3這樣的新推理模型能在推理過程(cheng)中進行計(ji)算,推(tui)理(li)計算(suan)量的擴大可(ke)以讓AI模(mo)型(xing)通過“思(si)考(kao)更(geng)長時間”來解(jie)鎖新的能(neng)力。
這種解釋十分重要。“測試時計算“確實代表了擴展模型算力和提高AI性能的一種新途徑,這相當令人興奮。但關于Scaling laws的另一個觀點更為重要,并且在如今的討論中被低估了:幾乎所有關于Scaling laws的討論——從2020年最初的論文到如今聚焦于測試時計算的討論——都集中在語言模型上,然而,語(yu)言并(bing)不是唯一重要的數(shu)據模態。
想想機器人技術、生物學、世界模型(xing)或AI web agent。對(dui)于(yu)這些數據模態,Scaling laws并沒有飽和;相反,Scaling laws才剛(gang)剛(gang)開始發揮作(zuo)用。不過(guo),關于(yu)上(shang)述領域(yu)Scaling laws存在性的嚴格證據,至今尚未發布。
為這些新(xin)數據模(mo)態(tai)搭建AI模(mo)型(xing)的(de)(de)初創公(gong)司,例如(ru)生物(wu)學(xue)領(ling)域(yu)(yu)的(de)(de)EvolutionaryScale、機器(qi)人領(ling)域(yu)(yu)中的(de)(de)Physical Intelligence、世界模(mo)型(xing)領(ling)域(yu)(yu)的(de)(de)World Labs,正在(zai)試圖識別并利用新(xin)領(ling)域(yu)(yu)中的(de)(de)Scaling laws。OpenAI利用Scaling laws發展(zhan)大(da)語(yu)言(yan)模(mo)型(xing)珠玉(yu)在(zai)前,預計2025年,Scaling laws會在(zai)新(xin)的(de)(de)領(ling)域(yu)(yu)大(da)展(zhan)身手。
不要相信外界的閑言碎語,Scaling laws絕不(bu)會消失。到2025年,它們依然至(zhi)關重要,但Scaling laws的(de)發揮場景(jing)將從大語(yu)言模(mo)型(xing)的(de)預訓練轉向其他(ta)模(mo)態。
三、特朗普和馬斯克或分道揚鑣,AI領域必受嚴重波及
新的(de)美國政(zheng)府班底將帶來一系(xi)列AI政(zheng)策(ce)和戰略的(de)轉變(bian),為了預測特朗普任期內AI領(ling)域的(de)走(zou)向,眾人都關注著(zhu)唐納(na)德(de)·特朗普與埃隆·馬(ma)斯(si)克的(de)密切(qie)關系(xi),畢竟馬(ma)斯(si)克在如今(jin)AI世界中扮演著(zhu)至關重要的(de)角(jiao)色。
可以想象,馬斯克可能通過多(duo)種方式(shi)影響特(te)朗(lang)普政(zheng)府(fu)的(de)AI相關決策(ce)。考慮到馬斯克與OpenAI之間水火不容的關系,新一屆政府可能會對OpenAI采取不(bu)太友好(hao)的態度,包括(kuo)行業接觸、制定(ding)AI監管政策、獲取(qu)政府(fu)合(he)同等(deng)等(deng)方(fang)面(mian)(mian)。OpenAI目前也確實非常擔憂這些(xie)問題。另(ling)一(yi)方(fang)面(mian)(mian),特朗普(pu)政府(fu)可能會偏向(xiang)支持馬(ma)斯(si)克的公司:例如,通過(guo)簡化各種流程(cheng),幫助xAI建立(li)數據中心和在(zai)模型競賽中取(qu)得領先地位;快速批準特斯(si)拉(la)部(bu)署自動駕(jia)駛出租車等(deng)。
更根本的是,不同于其他與特朗普關系親密的科技大佬,馬斯克非常重視AI對人類造成的安全威脅。因此他主張對AI進行嚴格(ge)監管:他支持加利福尼亞州尚(shang)有爭(zheng)議的SB 1047法案(an),該(gai)法案(an)試圖對(dui)AI開發者施加嚴格限(xian)制。因此,馬(ma)斯(si)克的影(ying)響力可(ke)能(neng)會導(dao)致美國的AI發展處于(yu)更(geng)為嚴厲的監管環(huan)境中。
不過,這些猜測都忽視了一個問題,那就是特朗普和馬斯克的密切關系必(bi)然(ran)會破裂。
正(zheng)如我們在特朗(lang)(lang)普政府第一(yi)屆(jie)任(ren)期內一(yi)再(zai)(zai)看(kan)(kan)到的那樣,即使(shi)是特朗(lang)(lang)普看(kan)(kan)似堅定不(bu)移的盟友,平(ping)均任(ren)期也異(yi)常(chang)短暫,從杰夫(fu)·塞申(shen)斯(si)(si)(Jeff Sessions)到雷克斯(si)(si)·蒂勒森(Rex Tillerson),再(zai)(zai)到詹姆(mu)斯(si)(si)·馬蒂斯(si)(si)(James Mattis)、約翰·博(bo)爾(er)頓(John Bolton)、史(shi)蒂夫(fu)·班(ban)農(Steve Bannon)都是如此(當然,誰能忘(wang)記安東尼·斯(si)(si)卡拉穆奇(Anthony Scaramucci)在白宮短短10天的任(ren)期呢(ni)?)。如今,特朗(lang)(lang)普幾乎沒有第一(yi)屆(jie)任(ren)期內的副(fu)手對他(ta)保持忠誠。
特朗普和馬斯克都具有(you)復雜、多變而不可捉摸的個性,與他們共事很不輕松,容(rong)易讓人筋(jin)疲力(li)盡。目前(qian)已經(jing)證(zheng)明(ming),他們的新(xin)近聯(lian)手對雙方都有(you)利,但這(zhe)段關系仍處于蜜月期。據《福布(bu)斯》預測(ce),2025沒(mei)過(guo)完,這(zhe)段關系就得(de)臭。
這(zhe)對AI領域意味著(zhu)什么呢?這(zhe)對OpenAI來(lai)說是(shi)個好消(xiao)息(xi),對特斯拉(la)股東來(lai)說則是(shi)個壞消(xiao)息(xi)。對那些關(guan)注(zhu)AI安全的人來(lai)說,這(zhe)將是(shi)一個讓人失望的消(xiao)息(xi),因為(wei)幾乎可以(yi)確定,沒有(you)馬(ma)斯克(ke),特朗普政府會在AI監管方面(mian)采取放任不管的態度(du)。
四、AI web agent大放異彩,成為消費者又一主流應用
想象這樣一個世界:不管是管理訂閱、支付賬單、預約醫生,還是在亞馬遜上購買東西、預定餐廳,或是完成任何繁瑣的線上事務,你都不需要直接上網,而只需指示AI助手(shou)替你完成。
“AI web agent”的(de)(de)概念已經存在(zai)多年。如果出(chu)現類似的(de)(de)產品并且能夠正常使用(yong),那(nei)毫無疑問,它會大獲成功。然而,如今市面上(shang)并不存在(zai)一個功能完整的(de)(de)通(tong)用(yong)AI web agent軟件。
像Adept這樣(yang)的(de)初創(chuang)公司(si),雖然擁有數(shu)百萬(wan)美(mei)元的(de)融資和一支(zhi)經驗豐富的(de)創(chuang)始(shi)團(tuan)隊,卻(que)未(wei)能(neng)成功推(tui)出產品。Adept的(de)案例已經成為這一領域(yu)的(de)前車之鑒。
明年,將是AI web agent真正變得成熟、足以進入主流市場的一年。大語言模型和視覺基礎模型的持續進展,加上新推理模型和推理時計算帶來的“系統2思維(System 2 thinking)”能力(出自卡尼曼雙系統思維模型,系統2通過邏輯推理解答問題,相對于系統1用直覺進行決策)的突破,都預示著AI web agent即將迎接發展的黃金時(shi)段。
AI web agent將找到各種(zhong)有(you)(you)價值的(de)企業應(ying)用(yong)場景,但短期內最大的(de)市場機(ji)會將在消(xiao)(xiao)費(fei)者領(ling)域。盡管最近AI熱潮不斷,但除了ChatGPT之外(wai),只有(you)(you)相對(dui)少數的(de)AI原生應(ying)用(yong)能夠取得突破,成為消(xiao)(xiao)費(fei)者當中的(de)主流應(ying)用(yong)。AI web agent將改(gai)變這一(yi)局面(mian),成為消(xiao)(xiao)費(fei)者下一(yi)款AI應(ying)用(yong)。
五、在太空建設AI數據中心的嚴肅嘗試
2023年,AI發展的(de)資源瓶(ping)頸是GPU芯(xin)片(pian);2024年,資源瓶(ping)頸成了(le)電力和數據中心。
在2024年,AI對能源的巨大需求成了全球焦點,尤其是在建造AI數據中心的熱潮當中。全球數據中心的電力需求在過去幾十年內保持平穩,但由于AI的興起,2023-2026年的電力需求預計將翻倍(bei)。到2030年,美國數據中心將消耗接近(jin)10%的總電力,遠(yuan)高于2022年的3%。
▲AI數據(ju)中心導(dao)致能(neng)源(yuan)需求飆升(sheng)(圖源(yuan):Semianalysis)
當(dang)前的(de)能(neng)源系(xi)統顯然無法應對AI發展帶來(lai)的(de)需求激增。能(neng)源電網和(he)計(ji)算基(ji)礎設(she)施,這兩個(ge)萬億美元級的(de)系(xi)統即(ji)將發生歷史性的(de)碰撞。
核能作為解決這一世紀難題的可能方案,今年獲得了越來越多的關注。核能在許多方面是AI理想的能源來源:零碳(tan)、隨時可獲(huo)取(qu)、并且幾乎取(qu)之不盡。但從(cong)現實角度看,想(xiang)通過新的核能(neng)(neng)解(jie)決能(neng)(neng)源問(wen)題,可能(neng)(neng)要等(deng)到30年代(dai)。因(yin)為(wei)核能(neng)(neng)開發(fa)需(xu)要長期(qi)的研究(jiu)、開發(fa)和監管周期(qi),這個周期(qi)適(shi)用于傳統的核裂變電廠(chang)、下一(yi)代(dai)“模(mo)塊(kuai)化小型(xing)反應堆”(SMRs),當(dang)然也適(shi)用于核聚變電廠(chang)。
明年,將出現一個大膽的想法來應對能源挑戰,發掘有效資源:將AI數據(ju)中(zhong)心建在太空里。乍一(yi)看,這個(ge)想法像是(shi)個(ge)笑話。但事實上,它(ta)有其可行(xing)性:在(zai)地球上批量鋪開數據(ju)中心的最(zui)大瓶頸就(jiu)是(shi)獲取(qu)電(dian)(dian)力;而在(zai)太空中,太陽永遠高懸,所以(yi)軌道上的計算集群可以(yi)享(xiang)受全天(tian)候、免費、無(wu)限、零碳的電(dian)(dian)力。
當(dang)然(ran),還有許(xu)多(duo)實際問(wen)題(ti)需要解決。一(yi)(yi)個(ge)顯而易見的問(wen)題(ti)是,能(neng)否找(zhao)到(dao)(dao)一(yi)(yi)種低成本、高效率的方式在軌(gui)道和地球之間(jian)傳輸大量數(shu)據?這(zhe)仍是一(yi)(yi)個(ge)懸而未決的問(wen)題(ti),但通(tong)過激光(guang)以及其他高帶寬光(guang)通(tong)信技術的研究,我們可能(neng)會找(zhao)到(dao)(dao)答案(an)。
為實現這一愿景,孵(fu)化自Y Combinator的初創公司Lumen Orbit最近融資了1100萬美(mei)元,要(yao)在太空中建(jian)立一個超高功(gong)率的數據中心網絡(luo)來訓練AI模型。
Lumen的CEO菲利(li)普·約翰斯頓(Philip Johnston)說(shuo)道:“與其支(zhi)付1.4億美(mei)元的電費(fei),不如支(zhi)付1000萬美(mei)元發射數(shu)據(ju)和使用太陽(yang)能。”
2025年,Lumen不會是唯一一家認真考慮這一想法的公司,其他初創公司也將出現。也不要驚訝于云計算巨頭啟動類似(si)的探索性項目。通過Project Kuiper,亞馬遜已經積累了送貨(huo)入軌(gui)的豐(feng)富經驗;谷歌也(ye)有長(chang)期資助類似(si)“登月計劃”的歷史;甚(shen)至微軟(ruan)對太(tai)空經濟(ji)也(ye)不陌生;埃隆(long)·馬斯克(ke)的SpaceX也(ye)可能(neng)會參與(yu)其中。
六、一種語音AI模型將通過圖靈測試
圖靈測試是衡量AI表現的最悠久、也最著名的標準之一。為了“通過”圖靈測試,AI系統必須能通過書面文本進行溝通,讓普(pu)通人(ren)無法(fa)分(fen)辨ta是在與(yu)AI互(hu)動(dong)(dong),還是與(yu)人(ren)類互(hu)動(dong)(dong)。
得益(yi)于近些年的(de)快速發展(zhan),大語言模型已能通過圖(tu)靈(ling)測(ce)試(shi),但書面(mian)文(wen)本并(bing)不是人類(lei)溝通的(de)唯(wei)一(yi)(yi)方式。隨著AI的(de)多模態化,我們可以想象一(yi)(yi)種(zhong)新的(de)、更具(ju)挑戰性的(de)圖(tu)靈(ling)測(ce)試(shi)版本——“語音圖(tu)靈(ling)測(ce)試(shi)”——在這種(zhong)測(ce)試(shi)中,AI系(xi)統必(bi)須能夠通過語音與(yu)人類(lei)互動,展(zhan)現出人類(lei)無法區(qu)分人機的(de)技能和流暢(chang)度(du)。
目前,通過語音圖靈測試仍是AI無法達到的目標,其間還有較大的差距。例如,人類說話與AI回應之間必須做到幾乎零延遲,這樣才可能媲美與人類交談的體驗;比如交流句子被中途打斷的時候,語音AI系統必須能夠實時、優雅地處理模(mo)糊輸入或對(dui)話誤解(jie);AI模型必須能夠進行長時間的、多輪的、開放式(shi)的對話,同時能夠記住討論的早期部分。更重要的是,語音AI必須學會更好地理解語音中的非語(yu)言信號:例如,當人(ren)類語(yu)(yu)音聽起來惱怒、興(xing)奮或譏諷時,這些信號都(dou)意味著什么,同時AI能在自(zi)己的(de)語(yu)(yu)音中生成這些非(fei)語(yu)(yu)言(yan)信號。
2024年(nian)接近尾聲,語(yu)(yu)音(yin)AI正(zheng)處于一個讓人興奮的(de)轉折點,諸如speech-to-speech等模(mo)型的(de)基(ji)礎性(xing)突破驅動(dong)著語(yu)(yu)音(yin)模(mo)型的(de)進(jin)步。如今,不管是(shi)技術(shu)領域(yu)還是(shi)商(shang)業領域(yu),語(yu)(yu)音(yin)AI都在快速發展(zhan)(zhan)。到(dao)2025年(nian),語(yu)(yu)音(yin)AI的(de)技術(shu)預(yu)計會取得巨大(da)進(jin)展(zhan)(zhan)。
七、 AI自我改進系統取得重大進展
能夠(gou)不斷實現自我改進的AI模型(xing),這(zhe)在AI圈(quan)里是一(yi)個綿延亙(gen)久的話題,已(yi)持續了幾(ji)十年。
例如,早在1965年,艾倫·圖靈(Alan Turing)的密切合作伙伴I.J. Good寫道:“要把超級智能機器定義為:無論人類多么聰明,都能遠遠超越所有人類才智的機器。由于機器設計是也屬于智力活動,所以一個超級智(zhi)能(neng)(neng)機器能(neng)(neng)夠設計出(chu)更好(hao)的(de)智(zhi)能(neng)(neng)機器;然后,毫(hao)無疑問地,會(hui)出現一個‘智能(neng)爆(bao)炸’,人(ren)類的智能(neng)將(jiang)被遠遠拋在后頭(tou)。”
AI自己研發(fa)更好的AI,這在智能發(fa)展(zhan)上是一(yi)個非常吸引人(ren)的概念。但(dan)即使到(dao)今天,它仍然帶有(you)一(yi)絲科幻的色彩。
然而,盡管(guan)尚(shang)未得(de)(de)到(dao)廣泛認可,但(dan)這個概念正在變得(de)(de)越來(lai)越接近落地。AI科學前沿的研究人員,已經開始在構建能(neng)自我發展的AI系統(tong)方面取得(de)(de)實(shi)質性進展。明年,預(yu)計這一(yi)研究領域將進入主流。
迄今為止最著名的公開研究實例是Sakana的AI Scientist,發布于今年8月,令人信服地證明了AI系統確實能夠完全自主地進行AI研究。
這項研究讓AI執行了AI研究的完整周期:閱讀現有文獻、生成新的研究想法、設計實驗來驗證想法、進行實驗、撰寫研究論文報告發現,然后進行同行評審。在沒有任何人工輸入的前提下,AI完全自(zi)主(zhu)地完成了一切任務。
雖然目(mu)前還沒(mei)有公開消(xiao)息,但關于OpenAI、Anthropic和其(qi)他研(yan)發機(ji)構正在(zai)將(jiang)資源投入到(dao)“自動化(hua)(hua)AI研(yan)究員(yuan)”這一理念中的(de)傳(chuan)言已(yi)經(jing)蔓延。2025年(nian)這一領域還會有更多討論、進(jin)展和創業(ye)公司,因為越來越多的(de)人意識到(dao),自動化(hua)(hua)AI研(yan)究具有現實可行性。
如(ru)果(guo)(guo)一(yi)篇完全由AI撰寫的(de)研(yan)究(jiu)(jiu)論文被頂級AI會(hui)(hui)(hui)議接受,那將是自(zi)(zi)動化AI研(yan)究(jiu)(jiu)最重(zhong)要(yao)(yao)的(de)里程碑(由于論文是盲審(shen)的(de),會(hui)(hui)(hui)議審(shen)稿人在論文被接受之前不會(hui)(hui)(hui)知(zhi)道它是由AI撰寫的(de))。如(ru)果(guo)(guo)看(kan)到AI自(zi)(zi)主(zhu)產生(sheng)成(cheng)果(guo)(guo)被NeurIPS、CVPR或ICML等會(hui)(hui)(hui)議接受,不要(yao)(yao)太(tai)驚(jing)訝(ya)。對于AI領域來(lai)說,那將是一(yi)個引人注目、充滿爭議并且具有歷史意義的(de)時刻。
八、 OpenAI、Anthropic和其他AI研發機構將調整戰略重心,轉向開發AI應用
發展AI模型是一項相當艱難的業務,AI研發機構簡直燒錢如流水,需要空前高度的資本集中。OpenAI最近籌集了破紀錄的66億美元資金,并且可能很快就需要(yao)更多(duo)資金。Anthropic、xAI和其他公司(si)也處于類似的境地。
由于切換AI模型成本不高、客戶對AI模型的忠誠度也比較低,AI應用開發商可以根據成本和性能變化在不同的AI模型之間無痛切換。所以通常認為,發(fa)展AI模型和(he)開發(fa)AI應用兩項業(ye)務沒有太大的聯系。
但隨著Meta的(de)Llama和(he)阿(a)里云(yun)通(tong)義等開源模型(xing)(xing)的(de)出(chu)現,AI模型(xing)(xing)商(shang)品化的(de)威脅(xie)日益緊迫。像OpenAI和(he)Anthropic這(zhe)樣的(de)AI領(ling)頭(tou)羊,不(bu)(bu)能(neng)、也(ye)不(bu)(bu)會(hui)(hui)停止對AI模型(xing)(xing)的(de)投資(zi)。到(dao)2025年,為(wei)了開發(fa)更高利(li)潤(run)、更具差(cha)異化和(he)更具黏性的(de)業務,預計這(zhe)些AI研(yan)發(fa)機構會(hui)(hui)大力(li)推出(chu)更多自己的(de)應用(yong)和(he)產品。
當然(ran),ChatGPT已經是一個成功范(fan)式,實(shi)現了(le)開發AI前沿模型和開發自有應用的緊(jin)密(mi)結合。
在新的一年里,我們可能還會看到哪些類型的第一方應用呢?更復雜且功能更豐富的搜索應用必然是其中重鎮,OpenAI的SearchGPT計劃就是未來發展趨勢的一個信號。AI編程也會是重要類別,這(zhe)個方(fang)向已經(jing)開始初步的產品(pin)化,比(bi)如OpenAI在10月推出的Canvas。
OpenAI或Anthropic會(hui)在2025年推出(chu)企業(ye)級AI搜索應(ying)用(yong)(yong)嗎?或者(zhe)客戶服務(wu)AI應(ying)用(yong)(yong)、法律AI應(ying)用(yong)(yong)、銷售(shou)AI應(ying)用(yong)(yong)?在C端,應(ying)該會(hui)推出(chu)“個人助手”AI web agent應(ying)用(yong)(yong)、旅行規(gui)劃應(ying)用(yong)(yong),或者(zhe)音樂生成應(ying)用(yong)(yong)。
當AI研發機構轉向自有應用開發后,最讓人關注的是,它們會直接(jie)與許多(duo)自己的重要客戶競爭:搜索領域(yu)(yu)的(de)(de)(de)Perplexity,編程領域(yu)(yu)的(de)(de)(de)Cursor,客戶服務領域(yu)(yu)的(de)(de)(de)Sierra,法律領域(yu)(yu)的(de)(de)(de)Harvey,銷售領域(yu)(yu)的(de)(de)(de)Clay等等。
九、至少在五個美國大城市,無人駕駛出租車會在網約車市場中占據兩位數的市場份額
自(zi)動駕駛汽車(che)已經歷了(le)數年(nian)炒作,但承(cheng)諾(nuo)卻遲(chi)遲(chi)不(bu)能兌(dui)現(xian)。近十年(nian)來,這項技術(shu)看似觸手(shou)可及(ji),但遲(chi)遲(chi)沒有落地進入主流(liu)市場。
這種(zhong)情況在(zai)(zai)2024年發生(sheng)了(le)劇變(bian)。現在(zai)(zai)Waymo的自動(dong)駕駛汽車(che)在(zai)(zai)舊金山街頭隨處可見,每天有(you)成(cheng)千上萬的居民像(xiang)以前乘(cheng)坐出(chu)租車(che)或(huo)Uber一樣,乘(cheng)坐Waymo出(chu)行。
自從2023年8月推出服務,至今Waymo已在舊金山的網約車市場份額中占據了22%,與Lyft的市(shi)(shi)場份(fen)額相同(Uber的市(shi)(shi)場份(fen)額為55%)。
22%的市場份額,這可能讓最(zui)近沒(mei)去過舊金山(shan)的人感到驚訝。僅僅眨眼的工夫(fu),自動駕駛出租(zu)車就(jiu)從研究項目變成一(yi)個龐大的商業模式了。
自動(dong)(dong)駕(jia)(jia)駛出租(zu)車(che)業務很快就將超越舊金山(shan)灣區,成(cheng)為多個美國(guo)城市(shi)(shi)交通系統的(de)重要組(zu)成(cheng)部分(fen),這個速(su)度(du)會比大(da)多數(shu)人預期的(de)更快。到明年(nian)年(nian)底,像Waymo這樣的(de)自動(dong)(dong)駕(jia)(jia)駛出租(zu)車(che)服務會在至少五個主要市(shi)(shi)場贏得(de)兩位數(shu)的(de)市(shi)(shi)場份額。
哪些(xie)地方最有可能成為舊金山之后的下一個(ge)城市呢?
Waymo的自動駕駛出租車已在洛杉磯和(he)鳳凰城運(yun)營,預計明年(nian)在這兩個(ge)地方的市(shi)場份額會大幅增加(jia)。奧斯(si)汀(Austin)、亞特蘭(lan)大(Atlanta)和邁阿密(mi)(Miami)也會很快成為Waymo的下(xia)一個(ge)目標市(shi)場。同時,Waymo的競爭對手Zoox也準備在拉斯(si)維加(jia)斯(si)推出自(zi)動駕(jia)駛(shi)出租(zu)車服務。
在(zai)經歷多年的炒作之后(hou),2025年,自動駕駛汽(qi)車將終于落地(di)主流市(shi)場。
十、2025年將發生第一宗真正的AI安全事件
隨著近年來AI的愈發強大,關于AI脫離人類意愿自主行動的擔憂日益增加,人們感受到一種可能失去AI控制的威脅:例如AI學會了欺騙(pian)或操控(kong)人類(lei),并借(jie)此(ci)實現自己的(de)目標,而這些目標可能對(dui)人類(lei)造成傷害。
這一類問題通常被歸類為“AI安全”問題。(AI還帶來了許多其他社會問題,便利隱私監控、加劇各種偏見,但這些問題與AI安全問題不同,后者更專注于AI系統可能開始以(yi)不符合人類意圖的方式行動、甚至最(zui)終可(ke)能(neng)對人類構成(cheng)生存威脅的危險。)
近年來,AI安全已經從一個(ge)邊緣的、有些科(ke)幻(huan)的議題(ti)轉變為主流話題(ti)。如今每一個(ge)重(zhong)要的AI開(kai)(kai)發者(zhe),從谷歌到微軟,再到OpenAI,都(dou)實打實地向AI安全工作(zuo)投入資源。AI領域的巨(ju)擘,如Geoff Hinton、Yoshua Bengio和Elon Musk,都(dou)開(kai)(kai)始對AI安全風險直(zhi)言不諱。
然而,到目前為止,AI安全(quan)問題仍然完全(quan)是理論(lun)性的。現實世界中尚(shang)未發(fa)生過真正的AI安全(quan)事件(至少沒有(you)被公開報道)。
2025年可能(neng)是(shi)這一局面(mian)發生變化(hua)的一年。
我們應(ying)該(gai)如何(he)(he)預估這(zhe)一(yi)(yi)AI安全事故的(de)內容?明確一(yi)(yi)點,這(zhe)不會涉及《終(zhong)結者(zhe)》風格的(de)殺手機器人,事故大(da)概率不會對任何(he)(he)人類、造成任何(he)(he)形式的(de)傷害(hai)。
也許某個AI模型會試圖秘密地在另一個服務器上復制(zhi)自己,以便保全自己,也就是所謂的自我滲透(self-exfiltration);也許某個AI模型會得出結論:為了更好地推進自我目標,它需要隱(yin)瞞自己能力,故意降低(di)性能評估,以此避免(mian)更嚴格的審查。
這些例子并不是危言聳聽,Apollo Research最近發布了重要實驗,證明在特定提示下,現在的AI模型確實能做出欺騙性行(xing)為。同樣(yang),Anthropic的最新(xin)研究顯示,大語(yu)言模型有令人(ren)擔憂的“偽裝對齊(fake alignment)”能力。
當(dang)然(ran),第一(yi)宗AI安全事故大概率會在對人類(lei)造成真正傷(shang)害之前被發(fa)現(xian)和(he)消弭,但對AI圈和(he)整個(ge)社會來說,這會是個(ge)振聾發(fa)聵的時刻(ke)。
AI事故的發生將清楚地表明:即使人類遠未面臨來自全能AI的生存威脅,也需要盡早達成共識:我們將會與非人的智能體共享世界,這種智能體就像人類自身一樣,會任性、會欺騙,也(ye)同樣(yang)不(bu)可預測。
來源:《福布斯》