智東西(公眾號:zhidxcom)
編譯 |? 程茜 陳駿達
編輯 |? Panken

智東西9月14日報道,近日,美國著名女脫口秀主持人奧普拉·溫弗瑞(Oprah Winfrey)錄制了一檔45分鐘的AI特別節目,主題為“AI與我們的未來”。嘉(jia)賓(bin)包(bao)括(kuo)OpenAI聯合(he)創(chuang)始人(ren)(ren)兼CEO薩(sa)姆·阿(a)爾特曼(man)(Sam Altman)、微軟聯合(he)創(chuang)始人(ren)(ren)比爾·蓋茨(Bill Gates)、YouTube知名科技(ji)博主馬庫斯·布(bu)朗利(Marques Brownlee,又稱(cheng)MKBHD)和現任FBI局長克(ke)里斯托弗·雷伊(Christopher Wray)等(deng)人(ren)(ren)。

這檔節目也是OpenAI發布傳說中“草莓”模型的部分預覽版——OpenAI o1預覽版后,阿爾特曼首次公開露面。OpenAI o1擁有進化(hua)的(de)(de)推理能(neng)力,在物理、生物、化(hua)學(xue)問題的(de)(de)基準測試中準確度甚(shen)至超(chao)過了人類(lei)博(bo)士水平。這些無一不(bu)引發人們對AI安(an)全的(de)(de)擔憂。

在對話中,作為目前這家最受矚目的AI創企的CEO,阿爾特曼強調了對AI系統進行安全測試的重要性,并(bing)透露他每隔幾天就(jiu)會和政府官員就(jiu)此碰面(mian)討(tao)論(lun)。

但同時,阿爾特曼也分享了AI能通過數據來學習并理解概念以及“AI將幫助我們解決一切問題”等極具爭議性的觀點,并在奧普拉提及他面對的信任危機時轉移話題

蓋茨(ci)則強調,10年內AI會極大地改變教育和醫療領域。然(ran)而,他并未提(ti)及這些改變可(ke)能并非全都是正面(mian)的。有研究顯示(shi),AI在醫療中的應用可(ke)能給診斷和治療效(xiao)果帶來負面(mian)影響。

其它嘉賓(bin)則(ze)關(guan)注了深度偽造(zao)造(zao)成的(de)危(wei)害(hai)和“超(chao)級智能帶(dai)來(lai)的(de)全(quan)新風險”。

這檔節目在發布前后引起軒然大波,許多網友和批評家質疑該節目在嘉賓選擇上過于單一,阿爾特曼與蓋茨都是從本場AI熱潮中直接受益的利益相關方,他們對AI的觀點可能有所偏頗。此外,部分嘉賓在節目中過度強調AI的遠期危害,可能導致公眾忽視AI目前已經對環境、社會造成的現實影響

一、阿爾特曼再度開啟“推銷員”模式,稱AI能解決“一切問題”

阿爾特曼是接受奧普拉采訪的第一位嘉賓,他提出了一個頗具爭議的觀點:當今的(de)AI是通過訓練數(shu)據(ju)來學習概念的(de)。

在向節目觀眾解釋AI的原理時,阿爾特曼說道:“我們向系統展示一千個單詞的序列,并要求它預測接下來的內容,反復重復這一過程,系統就能學會預測,進而學會背后的概念,這(zhe)就是模型的底層邏(luo)輯(ji)。”

許多專家并不同意這一說法。最近,OpenAI發布了傳說中“草莓”模型的部分預覽版——OpenAI o1預覽版。此類系統和之前的GPT系列模型確實可以高效、準確地完成下一詞預測的任務,但許多研究者認為這種模型只是統計機器——它們只是學習數據模式,沒有意圖,只是做出有根據的猜測。

阿爾特曼稱,AI對經濟發展的影響程度之大是前所未有的,稱到2035年,“AI能幫助我們解決一切問題”。假設我們能讓模型變得極為安全,但也無法改變AI融入經濟的速度,他認為:“人們想要更多、更好(的AI),似乎(hu)有某股強大的力量在推動其發展”。

不(bu)過(guo),高盛和(he)紅杉在近期(qi)都曾(ceng)指出AI領(ling)域(yu)存在投資(zi)和(he)收益不(bu)匹配的問題。

二、阿爾特曼強調AI監管,避而不談信任危機

阿爾特曼可能夸大了當今AI的能力,他也同時(shi)強調了對(dui)這些系(xi)統進(jin)行(xing)安全(quan)測(ce)試(shi)的重要性(xing):“我們需要做(zuo)的第一件事就是要讓政府(fu)開始研(yan)究如何對(dui)這些系(xi)統進(jin)行(xing)安全(quan)測(ce)試(shi),類似于(yu)飛機和藥物那樣的測(ce)試(shi)。”

但他的重點可能是后半句話:“如果我們現在能研究清楚這些問題,就能在之后發展出適合的監管框架。”換言之,他可能并不希望在當下就出現完整的監管體系

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹AI全能

▲阿爾特(te)曼接受采訪(fang)(圖(tu)源:ABC)

在過去的幾年中,阿爾特曼常常以支持AI監管的形象示人,在本次采訪中,他說到:“我個人可能每隔幾天就會和政府里的某個人交談一次。

不過(guo),在面臨歐洲和美國(guo)加州地方政府的實際監管政策時(shi),阿爾特(te)曼卻選擇(ze)反(fan)對。OpenAI的強力競爭對手(shou)Anthropic一開始雖然反(fan)對加州AI安(an)全法案的初(chu)稿,但積極參與了修(xiu)訂工作,OpenAI并(bing)未提(ti)出具(ju)體修(xiu)改意(yi)見。

奧普拉還質問阿爾特曼,他作為OpenAI的“頭目”(ringleader),之前曾被董事會以不信任為由開除,人們為什么要繼續相信他?阿爾特曼回避了這個問題,他(ta)只提到(dao)其公(gong)司正在努(nu)力逐漸(jian)建立(li)信任。

阿爾特(te)曼曾在多個場合提到,人(ren)們不(bu)(bu)應該(gai)相信(xin)他(ta)或者(zhe)任(ren)何一個人(ren)能確保AI造(zao)福(fu)世(shi)界。不(bu)(bu)過(guo),他(ta)不(bu)(bu)同意有(you)(you)些人(ren)稱(cheng)他(ta)為“世(shi)界上(shang)最(zui)有(you)(you)權勢(shi)和最(zui)危險的人(ren)”,他(ta)稱(cheng)自己有(you)(you)機會和責任(ren)推動AI朝(chao)著對人(ren)類有(you)(you)利的方向發展(zhan)。

三、深度偽造技術風險激增,青少年成侵害對象

在節(jie)目中,奧普拉和MKBHD談論(lun)了深度偽造(zao)的話題(ti)。

為了(le)證(zheng)明合(he)成(cheng)(cheng)內容的(de)(de)可(ke)信度(du),MKBHD將OpenAI的(de)(de)視(shi)頻生成(cheng)(cheng)模型Sora的(de)(de)樣本(ben)片(pian)段與幾(ji)個月(yue)前AI系(xi)統生成(cheng)(cheng)的(de)(de)片(pian)段進(jin)行了(le)比較。Sora的(de)(de)視(shi)頻效果遙(yao)遙(yao)領先(xian),這表明該領域的(de)(de)進(jin)步非常迅(xun)速。MKBHD還現場(chang)利用語音(yin)(yin)合(he)成(cheng)(cheng)器生成(cheng)(cheng)了(le)一(yi)段自己繞口(kou)令(ling)的(de)(de)音(yin)(yin)頻。

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹AI全能

▲YouTube科技(ji)博主MKBHD現場演示深(shen)度(du)偽造技(ji)術(圖源:ABC)

奧普拉對這項技術感到擔憂,但MKBHD認為就像之前的種種技術那樣,在開始階段總是會存在混亂,但人類最終總是能解決問題

來自美國人(ren)道技術中心的崔斯(si)坦·哈里斯(si)(Tristan Harris)和阿扎·拉斯(si)金(Aza Raskin)在節目中強調了“超級(ji)智(zhi)能帶來的全新風險”。然(ran)而,過去已(yi)有AI界人(ren)士(shi)批評,過分(fen)強調遙遠(yuan)的“超級(ji)智(zhi)能”,可(ke)能會導致社會忽視近期的AI風險,如AI的環(huan)境影響。

美國FBI現任局長雷伊談到(dao)AI詐(zha)騙日益(yi)盛行的情(qing)況。美國網絡安全公司ESET的數據顯示(shi),2022年至(zhi)2023年間,性勒索案(an)件增加了178%,部分原因是(shi)AI技術。

雷伊說:“有人冒充同齡人瞄準青少年群體,然后使用(AI生成的)的圖片說服孩子發送真實照片作為回報。一旦他們拿到這些照片,就將其用來威脅孩子們。”雷伊還談到了美國總統大選的虛假信息。他認為“現在還不是恐慌的時候”,但強調了每個人都有責任加強對AI使用的關注和謹慎

四、蓋茨看好AI教育、醫療應用,但偏見與濫用頻發

奧普拉還采訪了微軟聯合創始人比爾·蓋茨(Bill Gates),他認為10年內AI會極大地改變教育和醫療領域。

蓋茨(ci)說:“AI就像是(shi)坐在就診(zhen)現場的第(di)三人(ren),記錄診(zhen)斷結(jie)果,并提出處(chu)方建議。醫生(sheng)不需(xu)要再面對電腦屏幕,而是(shi)可以與患(huan)者互(hu)動,讓(rang)軟件確保診(zhen)斷結(jie)果得到(dao)完(wan)整記錄。”

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹AI全能

▲蓋茨在節目中談論AI與(yu)醫療和(he)教育(圖(tu)源:ABC)

然而,由于醫療、醫藥領域的樣本通常為白人男性,用這些數據來訓練AI可能造成偏見。2023年發布在學術期刊《自然》子刊上的一項研究表明,AI系統在某些情況下降低了手術的效果,特別是在涉及少數族裔的手術中。

在教育領域,蓋茨認為AI可以在課堂上“隨時待命”并且給任何水平的孩子提供激勵,但實際上許多教室里的情況并非如此。

英國(guo)安全互聯(lian)網中心的(de)調查顯示,超過一半(ban)的(de)孩(hai)子稱(cheng)曾看到同齡人以不(bu)當方式使用生成(cheng)式AI,如創(chuang)建看起來可信的(de)虛假信息(xi)或(huo)冒(mao)犯性的(de)圖像。

聯合國教科文組織(UNESCO)去年底曾敦促各國政府(fu)規范(fan)生成式AI在教育領域的使用,包括(kuo)對(dui)用戶實施(shi)年齡限制以及對(dui)數(shu)據保護和用戶隱私設置限制。

五、節目安排引發軒然大波,網友質疑奧普拉“拉偏架”

其實,在(zai)這檔特別節目發布之前,就有不少網(wang)友和批評家對其嘉賓安排和內容提出質疑。

部分網友認為,在AI界阿爾特曼等人顯然算不上最權威的專家。OpenAI前首席科(ke)學(xue)家伊爾亞(ya)·蘇茨克(ke)維(wei)(Ilya Sutskever)可能(neng)更了解(jie)AI,而OpenAI的(de)強力競爭對手Anthropic的(de)創始人達里奧·阿莫蒂(Dario Amodei)也應該(gai)被(bei)邀請(qing),以體(ti)現對AI不同的(de)看法。

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹AI全能

▲網友(you)吐槽奧普拉AI特別(bie)節目的嘉賓人選(xuan)(圖源:X平(ping)臺)

起(qi)訴Stability AI和Runway AI等公司、并(bing)讓Runway AI于不久(jiu)前(qian)“刪庫跑(pao)路”的藝術家卡(ka)拉·奧爾蒂斯(Karla Ortiz)認為,這檔節目(mu)應該找一些“真正(zheng)的專(zhuan)家”來參與討論。

她還進一步分析道,這檔節目或許將會是許多人第一次獲得與生成式AI相關的信息,然而參與這(zhe)檔節目的人大多是(shi)既(ji)得利益者,他(ta)們忽(hu)視了生成(cheng)式AI對大眾造成(cheng)的現實影響。她的系列帖子獲得了大量閱讀和(he)點贊。

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹AI全能

▲卡拉(la)·奧爾(er)蒂斯批評奧普拉(la)的(de)節目(mu)嘉賓(bin)選擇(圖源(yuan):X平(ping)臺)

前《洛杉磯時報》科技專欄作家布萊恩·莫欽特(Brian Merchant)在X平臺上將這場節目稱之為生成式AI行業困局中的一次“銷售宣傳”。

結語:批評聲浪減退但影響持續,或成部分觀眾“AI第一課”

這(zhe)檔(dang)節目在發布后繼續(xu)在社交媒體(ti)平臺上引發討論(lun),反對(dui)的聲浪并(bing)未如(ru)播(bo)出前般巨大。有部分(fen)網友認為(wei),這(zhe)檔(dang)節目其實是(shi)在面向“祖父母輩”群體(ti)介紹AI,并(bing)不(bu)是(shi)十分(fen)深刻。但也有網友認為(wei)這(zhe)正是(shi)非技術人員所需要的內容。

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹AI全能

▲Reddit論(lun)壇上的相關討論(lun)(圖(tu)源:Reddit)

相對較少(shao)的討論并不意味(wei)著這檔節(jie)(jie)目(mu)(mu)的影(ying)響力(li)有限(xian)。奧(ao)普(pu)拉的觀眾(zhong)群體龐(pang)大,但可能并不是(shi)社交媒體的用戶,他(ta)們十分愿意相信奧(ao)普(pu)拉和她的節(jie)(jie)目(mu)(mu)中(zhong)其他(ta)嘉(jia)賓的觀點。

通觀(guan)這檔45分(fen)鐘的節(jie)目,奧普拉(la)似乎將重(zhong)點放在了AI安全問題上,卻又沒有進行深入且實(shi)際的探討,并呈現來自不同(tong)方面的觀(guan)點。不論這些觀(guan)點是否正確,偏頗與否,似乎已經成為了部分(fen)觀(guan)眾的AI第一課。