智東西(公眾號:zhidxcom)
編譯 | 王涵
編輯 | 漠影

智東西6月(yue)9日消(xiao)息,據外媒Business Insider報道,谷歌CEO桑達爾·皮查伊(Sundar Pichai)在6月(yue)6日發布(bu)的雷(lei)克斯·弗萊德曼(Lex Fridman)播(bo)客(ke)中將目前AI的發展階段稱為“AJI”(Artificial Jagged Intelligence,鋸(ju)齒人工智能):“我不確定首創(chuang)者是誰,或許是卡帕西。”他(ta)指向前OpenAI聯合創(chuang)始人、深度學習專家安德烈·卡帕西(Andrej Karpathy)。

谷歌CEO皮查伊:AI才發展到AJI階段,實現AGI還需20年以上

▲播客主持人雷克斯·弗(fu)萊德曼(man)(Lex Fridman)與谷歌CEO桑達爾·皮查(cha)伊(Sundar Pichai)(圖源:YouTube)

技(ji)術(shu)進步從來都不是(shi)線性發展,人工智(zhi)能(neng)(AI)亦不例外。當學術(shu)界、獨(du)立開發者與科技(ji)巨(ju)頭共(gong)同推動通用人工智(zhi)能(neng)(AGI),這種尚(shang)屬(shu)假想、能(neng)比肩人類能(neng)力的(de)智(zhi)能(neng)形(xing)態時,他們正遭遇多重障(zhang)礙:許多新興模型易產生(sheng)幻覺、錯誤信息及低級失誤。

一、AI技術的發展并非線性,而是呈鋸齒狀

AJI隱喻(yu)著AI發展的(de)(de)鋸齒狀(zhuang)軌跡,既(ji)有天才火(huo)花,又伴(ban)基礎錯(cuo)誤。卡帕西(xi)在(zai)2024年(nian)發表的(de)(de)推文(wen)《鋸齒狀(zhuang)智能》中闡釋(shi):“這個術語描述(反直覺的(de)(de))現象(xiang):最先進的(de)(de)大語言模型(LLM)既(ji)能解決復雜數學問(wen)題,又會栽在(zai)9.9>9.11這類(lei)低(di)級錯(cuo)誤上(shang)。”他(ta)列舉了大語言模型在(zai)井字(zi)棋中做出“荒謬決策”、計(ji)數障礙等案例。

谷歌CEO皮查伊:AI才發展到AJI階段,實現AGI還需20年以上

▲前OpenAI聯合(he)創始人、深度學習(xi)專家安德烈·卡帕(pa)西(Andrej Karpathy)在2024年發布(bu)推文《鋸齒狀智(zhi)能》部分截圖(來(lai)源:X)

卡帕西提(ti)出(chu)核心(xin)差異:人類從幼年到成年“知識與問題解(jie)決能力呈(cheng)線性協同(tong)增(zeng)長”,而AI的“鋸齒邊緣”既(ji)不明晰也難以預測(ce)。皮查(cha)伊對此(ci)(ci)十分認(ren)同(tong):“你會驚(jing)嘆它們的能力,轉眼(yan)又發現其犯(fan)下數字錯誤或數不清(qing)‘strawberry’中的字母R,多數模型在(zai)此(ci)(ci)栽跟頭(tou)。我們正處于AJI階段:突飛猛進(jin)中夾雜明顯缺陷,但整體仍在(zai)快(kuai)速進(jin)化。”

二、皮查伊預測:2030年將迎來AI的多維度進展

皮查(cha)伊(yi)提到(dao)(dao),2010年谷歌DeepMind成(cheng)立時,其團隊曾(ceng)預測(ce)實現AGI需要(yao)20年,皮查(cha)伊(yi)認為實際耗時可能更長。他還預計,到(dao)(dao)2030年世界(jie)將(jiang)需要(yao)建立AI內容標(biao)識(shi)系統(tong)以“區分現實”,皮查(cha)伊(yi)說:“我要(yao)強(qiang)調定義本身并不重要(yao),因為屆時多個維度都將(jiang)取得突破性進(jin)展。”

“進步”是個模(mo)糊概念,但皮查伊詳細闡述過(guo)AI將帶來的(de)(de)益處。在(zai)2024年9月(yue)舉辦的(de)(de)聯(lian)合(he)國(guo)“未來峰會(hui)”上,他列舉了(le)AI推動人類發展(zhan)的(de)(de)四個具體方向(xiang):改善母(mu)語知識獲取(qu)、加速科學發現、緩解氣候(hou)災難、促進經濟進步。

不過(guo)首(shou)先(xian),AI得學會正確拼寫(xie)“strawberry”這個詞(ci)。

結語:不出現低級錯誤是AI的安全底線

皮查伊(yi)引用的“鋸齒比喻”很形象地描繪(hui)出了當(dang)下AI發展的局(ju)勢,同時(shi)也提醒我(wo)們:大(da)模型(xing)的技(ji)術迭代不(bu)應僅以 “攻克難題” 作為單一評價維(wei)度。當(dang)模型(xing)能夠求(qiu)解復雜(za)數學方程、生成專業代碼(ma)時(shi),我(wo)們更需審視其在基(ji)礎(chu)邏輯校(xiao)驗(yan)、常識性(xing)判斷等(deng) “底層能力” 上的表現。

解決(jue)高(gao)難問題是AI大模型的能力上線(xian),而不(bu)出現(xian)低(di)級錯誤則(ze)是其安全底線(xian)。一個(ge)在專業領域表現(xian)卓越卻頻繁輸出常識性錯誤的模型,不(bu)僅(jin)可能誤導用戶決(jue)策,更(geng)會(hui)侵蝕用戶信(xin)任。

或(huo)許(xu),能(neng)否(fou)精準識別“1.11與1.8的(de)數值大小”“strawberry里有幾個字(zi)母R” 等(deng)基礎問題,才是更廣泛的(de)普通用戶所真正關心的(de)。

來(lai)源:Business Insider