
智東西(公眾號:zhidxcom)
編譯 | 羅添瑾
編輯 | 云鵬
智東西(xi)6月28日(ri)消息(xi),彭(peng)博(bo)社在今日(ri)報道了(le)一則與AI安全有關的(de)采訪,采訪對(dui)象是(shi)來(lai)自美國AI安全中心(CAIS)的(de)主(zhu)任,也是(shi)xAI的(de)安全顧問——丹·亨德里(li)克(ke)斯(Dan hendricks),采訪內容圍(wei)繞(rao)他對(dui)全球AI潛在風險的(de)認識和(he)應對(dui)策略(lve)展開。
在采訪中他(ta)談(tan)論到(dao)了埃隆·馬斯克(Elon Musk)對于AI的(de)(de)看法(fa),并(bing)預估在2026年前(qian)后(hou)會發生(sheng)一(yi)次關鍵(jian)基礎設(she)施被惡(e)意攻擊(ji)的(de)(de)事(shi)件,他(ta)表示,未來十(shi)年,如果人(ren)類實現通用人(ren)工(gong)智能(AGI),那么將(jiang)面臨大規模的(de)(de)勞(lao)動(dong)力中斷。
以下是對話的編譯:
我們采訪了AI政策(ce)領(ling)域的(de)后起之星丹(dan)·亨德里克(ke)斯(si)(Dan hendricks),了解(jie)他為(wei)什么認為(wei)我們需(xu)要(yao)更多地關(guan)注AI帶(dai)來的(de)災(zai)難(nan)性(xing)風(feng)險。
幾年前,丹·亨德里(li)克斯(Dan hendricks)還是(shi)加州(zhou)大學(xue)伯克利(li)分校(University of California at Berkeley)的一名學(xue)生,正在攻讀(du)計算機科學(xue)博士學(xue)位(wei)。現在,他是(shi)AI安全和政策領(ling)域最(zui)有影響力的新人物之一。
▲丹·亨德里克(ke)斯(si)(圖源:丹·亨德里克斯)
就在過去(qu)的(de)(de)幾個月里(li),亨德里(li)克斯(si)一直在為埃隆·馬斯(si)克提供咨詢;與阿根廷(ting)總(zong)統共進(jin)晚(wan)餐(can),并(bing)幫助起草了(le)一項備受爭議的(de)(de)加州新立法,名(ming)為《SB-1047前沿AI大模型(xing)安全創新法案》。
亨德里(li)克斯第(di)一(yi)次登上頭條是在2023年5月(yue),當(dang)時他參與創(chuang)始(shi)的(de)非營利組織——AI安全(quan)中(zhong)心(CAIS)撰寫了(le)一(yi)封(feng)只有一(yi)句話(hua)的(de)公開信(xin),呼(hu)吁(yu)將(jiang)“減輕(qing)AI帶來的(de)滅絕風險(xian)”作為全(quan)球優(you)先事項,就(jiu)像防止流行病或是核戰爭一(yi)樣。多名(ming)AI領域(yu)的(de)知名(ming)人士(shi)參與簽署了(le)這(zhe)份(fen)聲明,包(bao)括OpenAI的(de)山姆·奧特曼(man)(Sam Altman)和Anthropic的(de)達里(li)奧·阿(a)莫代(Dario Amodei)。
“自那(nei)以(yi)后,人們(men)對AI可能會(hui)終(zhong)結世界的擔憂有所減弱,但(dan)這(zhe)并不意(yi)味(wei)著我(wo)們(men)不應該擔心。”亨德(de)里克斯(si)說。
“如果我們在未來10年(nian)內(nei)實現AGI,這(zhe)將徹底改變人類的狀況(kuang):至少會造成大規模(mo)的勞動(dong)力中(zhong)斷。”亨德里克斯告訴我,“所(suo)以這(zhe)并(bing)不是說,‘哦,現在我們有電動(dong)牙刷了(le)。’它不像(xiang)其他(ta)小的外圍技術(shu)創新。”
CAIS已經籌集了(le)數百(bai)萬(wan)美(mei)元,下(xia)一(yi)步目標是擴大在華盛頓的業務。
亨德里克對AI安全的(de)重視和(he)提倡使他(ta)在一些圈子里并(bing)不受歡迎,尤(you)其是他(ta)在加州法案(an)(an)SB 1047上所做的(de)工作,一些技術專(zhuan)家說(shuo),這項法案(an)(an)可能會(hui)阻礙創新。他(ta)說(shuo),很(hen)多(duo)批(pi)評都是虛假的(de)。他(ta)說(shuo):“不管法案(an)(an)內(nei)容(rong)如何,很(hen)多(duo)風投公(gong)司都會(hui)反對它。”
我們(men)采訪了(le)亨德里克(ke)斯(si),談(tan)到了(le)該法(fa)案引發的(de)憤怒、他(ta)與馬斯(si)克(ke)的(de)合作,以(yi)及我們(men)將會以(yi)何種方式感知到觸達AGI的(de)那一天。
為了篇幅和清晰度,這篇采訪經過了編輯。
彭博社:你是埃隆·馬斯克的AI安全顧問,和他一起工作是什么感覺?
亨德(de)里克斯:他是(shi)一名非常棒的管理者(zhe),在每周與(yu)他的會議(yi)上(shang),我(wo)笑得比在其他任何會議(yi)上(shang)都多。
彭博社(she):我很想聽聽馬斯克對AI安(an)全的看法,他(ta)顯然非常關(guan)心AI的長期風險。另(ling)一方面,他(ta)一直直言不諱地表示(shi),不希望監管機構或(huo)監管者侵犯言論自由。
亨德(de)里克(ke)斯:這(zhe)是有區(qu)別(bie)的。所(suo)以埃隆絕對是支持監管(guan)的。過去,他在(zai)AI安全問題上一直是卡桑德(de)拉(la)(Cassandra),耗(hao)費了他大量(liang)的社會資本。
(*卡桑德(de)拉:通常(chang)用來形容那些(xie)發(fa)出警(jing)告(gao)或預(yu)言危險,但被忽視或不(bu)被信任的情況。)
他當然會反對(dui)妨礙言論自由,但這(zhe)種問題(ti)并不全是政府的(de)事情。這(zhe)更(geng)多的(de)關乎(hu)社會規范,例如“你會指示AI去說一些特定的(de)意識形態的(de)事情嗎?”
彭博社:你在xAI安全方面的任務是什么?
亨(heng)德里克斯:我(wo)(wo)認為現在(zai)的(de)(de)主要(yao)事(shi)情是遵守行政命令,并策(ce)劃(hua)一些好的(de)(de)測試,例如:“模型是否可以(yi)被不(bu)懷好意(yi)的(de)(de)恐怖分(fen)子用于研究化學、生(sheng)物、放射(she)性(xing)或核武器或網絡武器?”為此,我(wo)(wo)們需要(yao)好的(de)(de)測試,這些任(ren)務都和我(wo)(wo)的(de)(de)背景(jing)相(xiang)關。
之(zhi)后(hou),會有類似的問題,“如果我(wo)們(men)在系統中遇(yu)到這種危險(xian),公(gong)司的政策是什么(me),我(wo)們(men)會怎(zen)么(me)做(zuo)?”我(wo)們(men)需要進行協(xie)商并且弄清楚那些(xie)應該(gai)是什么(me)。
彭博社:我覺得在OpenAI或Anthropic,可能至少有幾十個人在做類似的工作。你們會增加人員編制嗎,還是只有你一個人在做?
亨德里克斯:幸運的(de)是,我(wo)在AI安(an)全中心(CAIS)可以做一些工作(zuo)。例如,我(wo)們(men)與Scale AI合作(zuo)制作(zuo)了(le)一個大規模殺傷性武(wu)器(qi)代理基準(zhun)測試。然后我(wo)們(men)可以將其發布出來,而(er)在xAI,他們(men)可以使用這個基準(zhun)測試。這樣,我(wo)可以以間接的(de)方式提供(gong)幫(bang)助,并(bing)且(qie)隨著組織擴展,更多(duo)專注(zhu)于(yu)安(an)全的(de)人員加(jia)入,這個問題就不(bu)會那么嚴重了(le)。
彭博社:您在CAIS更關注什么?
亨德里克(ke)斯:目(mu)前,我(wo)感興趣的(de)(de)(de)是提出一種(zhong)人類可(ke)以(yi)認(ren)同的(de)(de)(de)衡量(liang)標準,用(yong)以(yi)判(pan)斷“如果跨越了(le)(le)這(zhe)個門檻(jian),那么我(wo)們(men)就達到了(le)(le)AGI。”因為(wei)我(wo)認(ren)為(wei)現在要協調出一個一致的(de)(de)(de)標準來判(pan)定我(wo)們(men)何時(shi)達到了(le)(le)超高(gao)能力(li)的(de)(de)(de)水平(ping)是相當困難的(de)(de)(de),并(bing)且在達到這(zhe)種(zhong)超高(gao)能力(li)水平(ping)時(shi)我(wo)們(men)應該做些(xie)什(shen)么。關于能力(li)測量(liang)方面(mian),現在一片混亂。
我們(men)的另(ling)一個關(guan)注點是(shi)出口管制和國家(jia)安全,確保我們(men)對像(xiang)英偉達 H100這樣的東(dong)西進行控制,并試圖更多地監督計算(suan)的情況,以(yi)確保它不會落入像(xiang)朝鮮這樣的地方。
還(huan)有就(jiu)是關注加州(zhou)立法SB 1047。
彭博社:大約一年前,您說AI可能協助制造生物武器或執行大規模黑客攻擊。我們有看到過這樣的事情嗎?您是否改變了您的預判?
亨德里(li)克(ke)斯(si):我想我是在2021年(nian)寫下了我的預估。在2026年(nian)左右會(hui)發生一次對(dui)關鍵基礎(chu)設(she)施的大規(gui)模攻擊(ji),這(zhe)個方向目前來看差(cha)不多是對(dui)的,甚至會(hui)稍微(wei)提前。
但我想非常明確地講,我最擔心的兩(liang)種惡(e)意(yi)使(shi)用形式——那些(xie)影響(xiang)國家安(an)全的——就是針對(dui)關鍵基礎設施的網絡攻擊和AI生物武器。
我(wo)現在并不擔(dan)(dan)心模型(xing)。目前我(wo)們還停留在GPT4模型(xing)階段,GPT4模型(xing)對我(wo)來說并不令人擔(dan)(dan)憂。
彭博社:您如何看待許多科技行業的人士強烈反對SB 1047?
亨德里(li)(li)克(ke)斯:我(wo)(wo)和(he)一(yi)些人(ren)交(jiao)流過(guo),他們會(hui)說,“不應該對模(mo)型(xing)進(jin)行(xing)任(ren)何測(ce)試(shi)。政府不應該測(ce)試(shi)模(mo)型(xing)或評估它們是(shi)否會(hui)造(zao)成(cheng)危害。”我(wo)(wo)的反應是(shi),“好吧(ba),我(wo)(wo)看不出這(zhe)里(li)(li)有什(shen)么可以(yi)協商的余地。”因為在(zai)發(fa)布之前,我(wo)(wo)們會(hui)對iPhone進(jin)行(xing)測(ce)試(shi)。
還有很多完全站不(bu)住腳(jiao)的論(lun)點(dian),比如,“哦,這(zhe)違反(fan)了第一修(xiu)正案(an)”——我(wo)想問他們有沒有咨詢過律(lv)師事(shi)務所?他們還對(dui)(dui)其他一些事(shi)情非常(chang)不(bu)滿(man):例如,有人說法案(an)里有偽證條款。是(shi)的,如果你故意對(dui)(dui)政府撒謊,說你進行了安(an)全測(ce)試,而實際并(bing)沒有,如果你對(dui)(dui)政府撒謊,那你可能會遇(yu)到麻煩。這(zhe)并(bing)不(bu)是(shi)什么不(bu)尋常(chang)的事(shi)情。
很多(duo)風險投資人和其他人不管法案(an)內容如何,都會反(fan)對它。但我(wo)認(ren)為我(wo)們(men)在做(zuo)出權衡時做(zuo)得很好。我(wo)們(men)主要(yao)針對的是影(ying)響(xiang)國家(jia)安全的事情。比如在涉及網絡和傳統的大規模殺傷性武(wu)器時,我(wo)們(men)特別關注關鍵基礎設施。我(wo)認(ren)為他們(men)已經在執行(xing)(xing)命令的情況下進行(xing)(xing)了(le)很多(duo)這種安全測試。我(wo)們(men)只是將其變成(cheng)法律,而不是某個未來政府可以撤銷的行(xing)(xing)政命令。
彭博社:你認為最近對有效利他主義(EA)的批評是否被用來針對你,或針對整個AI安全工作?
亨德里(li)克斯:這(zhe)是一種過時的(de)區分(fen)。我(wo)認為人們普遍認為SB 1047是合(he)理(li)的(de)。我(wo)們委托(tuo)了一項獨立(li)的(de)民(min)意調查,以了解全國對它(ta)的(de)支持情況。
這(zhe)不(bu)是(shi)一個EA的問(wen)題(ti)。非常不(bu)幸的是(shi),在(zai)ChatGPT之(zhi)前,主要關(guan)心AI風險的群體是(shi)EA。
我們中(zhong)的(de)一(yi)(yi)些人不得(de)不與(yu)EA們共(gong)存(cun),因為他們實在是一(yi)(yi)個壓倒性的(de)力量。但是在GPT之后,他們只是大海中(zhong)的(de)一(yi)(yi)滴水,我認(ren)為他們可能不再是影響故事情節發展(zhan)的(de)關鍵人物。
埃隆(long)(Elon)不是EA。薩姆(Sam)也(ye)不是EA。我認為(wei)他們非常關心AI安全(quan)。
彭博社:你認為在這方面有聯邦監管的希望嗎?
亨德里克(ke)斯:當然(ran)。我是說,我們(men)已經有(you)出口管制(zhi)(zhi)了,例如,對GPU的(de)(de)(de)出口管制(zhi)(zhi)。那些管制(zhi)(zhi)有(you)很多漏洞。我們(men)不能(neng)指望工業與安全局(Bureau of Industry and Security)自己處理(li)所(suo)有(you)問題。我認(ren)為(wei)世界終于(yu)開始意識(shi)到:這不僅僅是關(guan)于(yu)AI開發者的(de)(de)(de)故(gu)事(shi),而是關(guan)于(yu)計算能(neng)力和(he)GPU的(de)(de)(de)故(gu)事(shi)。計算能(neng)力的(de)(de)(de)流動(dong)非常重要,我們(men)應該確保如果芯片是未來(lai)的(de)(de)(de)鈾,我們(men)要跟蹤“鈾去哪里了?有(you)沒有(you)被(bei)走私?”
我(wo)還(huan)預計(ji)AI能(neng)力(li)的發展將會出現飛躍。自從(cong)GPT-4以來(lai),我(wo)們還(huan)沒有(you)看到實(shi)質性的飛躍,因為(wei)還(huan)沒有(you)一個(ge)模(mo)型使用比(bi)GPT-4多(duo)十倍的計(ji)算能(neng)力(li)進行訓練。但當這種情況發生時,我(wo)認(ren)為(wei)人(ren)們會說:“哦,AI的發展比(bi)預期的要快得多(duo)。”到那時,就會有(you)政(zheng)治力(li)量(liang)參與從(cong)而推(tui)動新的措施。
彭博社:我看到一張阿根廷總統哈維爾·米萊在科技晚宴上的照片,在照片中我看到了您,對嗎?如果是的話,你們討論了什么?
亨德里克(ke)斯(si):是(shi)的(de),沒錯。顯然(ran)(米(mi)萊總統)的(de)人正在(zai)(zai)看我(wo)制作的(de)教科書,或(huo)者他(ta)的(de)顧問正在(zai)(zai)看它。我(wo)認為(wei)他(ta)們(men)(men)(men)正在(zai)(zai)做(zuo)一(yi)些(xie)事(shi)情很有(you)趣(qu)。我(wo)認為(wei)評(ping)論其他(ta)國家的(de)舉動不太好(hao),但顯然(ran)他(ta)們(men)(men)(men)在(zai)(zai)經濟上做(zuo)得很好(hao)。我(wo)的(de)意思是(shi),我(wo)認為(wei)他(ta)們(men)(men)(men)意識到AI在(zai)(zai)經濟上是(shi)非常(chang)重(zhong)要的(de)。所以我(wo)們(men)(men)(men)可以看看他(ta)們(men)(men)(men)未來的(de)表現。
我坐在OpenAI的(de)格(ge)雷格(ge)·布羅(luo)克曼(Greg Brockman)和安(an)德(de)森(sen)·霍洛維茨(Andreessen Horowitz)公司的(de)一些人旁(pang)邊,玩得很開心(xin),跟他們相處的(de)也很愉(yu)快。
結語:AI安全仍是全世界范圍內值得關注的問題
在這(zhe)篇(pian)深入(ru)探(tan)討AI安全和(he)政策(ce)(ce)的(de)采訪中(zhong),我(wo)們可以了(le)解到亨(heng)德里克(ke)斯(si)對(dui)全球AI潛在風險的(de)認識和(he)應對(dui)策(ce)(ce)略。從與(yu)Elon Musk的(de)合作(zuo)到加州(zhou)立法SB 1047的(de)辯論,他不(bu)僅在技術層(ceng)面上推動了(le)安全標準的(de)制(zhi)定,更在政策(ce)(ce)層(ceng)面上促(cu)進了(le)對(dui)AI監管的(de)深入(ru)討論。隨著AI技術的(de)不(bu)斷進步,其對(dui)社會(hui)的(de)影(ying)響日益深遠,必須(xu)要在創新與(yu)安全之間找到平衡點,確保技術的(de)發展不(bu)會(hui)以犧牲人類福祉為代價(jia)。
隨著全(quan)球對(dui)AI的(de)監管和政策(ce)制定越來(lai)越重(zhong)視,我們期待(dai)一個更加完善的(de)框架,既(ji)能促進技術的(de)健(jian)康(kang)發展,也能保護(hu)社(she)會(hui)免受其潛在(zai)威脅(xie)。這不僅(jin)是技術專家的(de)責(ze)任,也是每(mei)一個社(she)會(hui)成員的(de)共(gong)同使命。
來源:彭博社