智東西(公眾號:zhidxcom)
編譯 | 程茜
編輯 | 李水青

智東西9月(yue)16日(ri)消(xiao)息,9月(yue)11日(ri),OpenAI聯合(he)創始人、CEO薩(sa)姆·阿爾(er)特曼(Sam Altman)接受了(le)美國(guo)知名新聞(wen)主(zhu)持人塔(ta)克(ke)·卡(ka)爾(er)森(Tucker Carlson)的專訪。

阿爾特曼在訪談中,首次回應了ChatGPT并不總反對自殺,面對未成(cheng)年人(ren)、患(huan)絕(jue)癥的成(cheng)年人(ren)、在(zai)安樂死合法的國家里,ChatGPT或(huo)許應(ying)該分情(qing)況應(ying)對。同時他也提到,他曾非(fei)常敬重與埃隆·馬(ma)斯克(Elon Musk)但(dan)現在(zai)已(yi)幾乎不聯系。

并且他透(tou)露,OpenAI為ChatGPT制定的(de)道(dao)德規(gui)范來自于數(shu)百位道(dao)德哲學家以及研究技(ji)術倫理和系統倫理的(de)專家,最(zui)終形成一些有傾向性的(de)具體(ti)規(gui)范,這些規(gui)范也會隨著時間(jian)增長而發生(sheng)變化。

干貨如下:

1、AI沒有生命,“AI似乎具備某種自主性”可能是人類的錯覺;

2、AI幻覺依(yi)然(ran)存(cun)在(zai),但他相(xiang)信我們終(zhong)會徹(che)底解決幻覺;

3、AI會讓擁抱這項技術的每一個人都更強大,目前不會導致權力高度集中;

4、ChatGPT應該反映人類道德觀念的“加權平均值”,其實ChatGPT的一些觀點阿爾特曼本人也不認同;

5、阿爾特曼晚上失眠,最擔心的是每天有數億人在和OpenAI的模型互動,為背后未知的危險感到焦慮;

6、AI需平衡隱私保護和自殺預防之間的關系,他提倡確立“AI隱私特權”概念;

7、OpenAI在版權問題上出了名的嚴格;

8、阿爾(er)特(te)曼曾(ceng)十分敬(jing)重馬(ma)斯克(ke),認為他是(shi)一(yi)位了(le)(le)不起(qi)的英雄,但現(xian)在想法變了(le)(le),且與馬(ma)斯克(ke)幾乎不聯系。馬(ma)斯克(ke)曾(ceng)說“OpenAI成(cheng)功的概率是(shi)0”;

9、受AI影響,電話客服會失業,對程序員崗位的發展不確定;

10、生物識別不應該成為全社會的強制要求

這場對談持(chi)續(xu)了將近1個小時。

“我曾敬重馬斯克,但現在不聯系了”!阿爾特曼專訪回應攻擊,首談AI自殺預防兩難

▲OpenAI聯合創始人、CEO薩姆·阿(a)爾特曼(man)(Sam Altman)(右)美國(guo)知(zhi)名新(xin)聞(wen)主持人塔克(ke)·卡爾森(Tucker Carlson)(左)

YouTube賬號評論(lun)區的(de)網友也針對阿(a)爾(er)特(te)曼的(de)表現展(zhan)開了討論(lun),他們認(ren)為“阿(a)爾(er)特(te)曼后悔同(tong)意這次(ci)采訪(fang)”,其判斷的(de)依據可能(neng)是在訪(fang)談期(qi)間(jian),阿(a)爾(er)特(te)曼多次(ci)回(hui)答時低(di)頭(tou),拒絕(jue)與主(zhu)持人進行眼神(shen)交流;還有人認(ren)為他就像(xiang)人類(lei)形態的(de)ChatGPT、沒有感情(qing)、無法回(hui)答道德問(wen)題。

“我曾敬重馬斯克,但現在不聯系了”!阿爾特曼專訪回應攻擊,首談AI自殺預防兩難

以下是對訪談全程內容的編譯(為優化閱讀體驗智東西做了不改變原意的編輯):

一、AI沒有生命,不會導致權力高度集中

主持人:ChatGPT或者其他AI,仿佛能自主得出結論,看起來就像擁有生命一樣。那么,它們是活的嗎?它具有生命嗎?

阿爾特曼:不,我不認為他們有生命。不過(guo)我能(neng)理解(jie)為什么(me)會有人產生(sheng)這種感(gan)覺(jue)(jue),AI不會主動(dong)做任何事(shi),除非你(ni)發(fa)出指令,AI就(jiu)好像只是(shi)待(dai)在(zai)那里在(zai)等待(dai)一樣,它(ta)們沒(mei)有能(neng)動(dong)性或自主性的特質。不過(guo)我認為,你(ni)使用(yong)它(ta)們的次(ci)數越(yue)多,那種它(ta)們具(ju)備(bei)生(sheng)命的錯覺(jue)(jue)就(jiu)越(yue)容易破滅。但不可否認,它(ta)們的實(shi)用(yong)性極強,雖(sui)然它(ta)們表(biao)現得或許(xu)沒(mei)有生(sheng)命感(gan),卻又確實(shi)顯得很(hen)聰明(ming),能(neng)完成不少事(shi)情(qing)。

主持人:我和一個參與技術發展的人交談,他說AI在撒謊,你見過AI撒謊嗎?

阿爾特曼:是的,但AI并(bing)不是一(yi)直(zhi)在撒謊,它們(men)過(guo)去總是產生幻(huan)覺(jue),但現在會產生一(yi)點(dian)(dian)點(dian)(dian)幻(huan)覺(jue),這好多了。但在早期,如果你問“美(mei)國那位虛構(gou)的(de)總統塔(ta)克(ke)·卡(ka)爾(er)(er)森出生于哪一(yi)(yi)年(nian)”,它理應回答“我(wo)認為(wei)塔(ta)克(ke)·卡(ka)爾(er)(er)森從未擔任過(guo)美(mei)國總統”。但由于當(dang)時的(de)訓練方式問題,它的(de)反應不(bu)會是這樣。它會做(zuo)出這樣的(de)判斷:“哦,我(wo)不(bu)知道存不(bu)存在這樣一(yi)(yi)位總統,既然用戶提到(dao)了塔(ta)克(ke)·卡(ka)爾(er)(er)森總統,那我(wo)就盡(jin)量(liang)猜一(yi)(yi)個(ge)年(nian)份(fen)吧。” 不(bu)過(guo),我(wo)們后(hou)來已經找(zhao)到(dao)方法(fa),基本解決了這類問題。

如(ru)今(jin),這類問題的案(an)例(li)依然存在(zai),但我(wo)相信我(wo)們(men)終會徹(che)底解決(jue)它。而(er)且在(zai)GPT-5中,我(wo)們(men)已(yi)經在(zai)這方面取得了巨大(da)進展。

主持人:但你剛才的描述聽起來也像是一種意愿的體現,或者至少是有創造力的表現。我之前看過AI的演示,它給人的感覺不太像一臺機器,反而像帶有生命的火花。你是否也有過這種感受?

阿爾特曼:就(jiu)拿(na)剛提(ti)到的那個(ge)例子來(lai)說(shuo)(shuo),從數學(xue)角度看,模型需要通(tong)過權(quan)重計算得出最可(ke)能的答(da)案,而不該是默認“用(yong)戶(hu)說(shuo)(shuo)的一定對、確實存在這(zhe)(zhe)位總(zong)統(tong)”,應該是“從未有過這(zhe)(zhe)位總(zong)統(tong)”。

所(suo)以模型最初給出的(de)最可能的(de)答(da)案(an)應該(gai)是(shi)一個(ge)具(ju)體的(de)出生年份。不過,我(wo)們(men)后來還是(shi)找到了(le)解決這(zhe)個(ge)問題的(de)方法。

但就你之(zhi)前(qian)看到的演示(shi)情況而(er)言,我感覺自己腦子里好(hao)像得同(tong)(tong)時裝著(zhu)兩個截然不同(tong)(tong)的想法才能理解。

一(yi)(yi)個想法是眼(yan)前所有這些(xie)AI生(sheng)成(cheng)內(nei)容的(de)現象,本質上都源(yuan)于(yu)一(yi)(yi)臺高性能(neng)(neng)計算(suan)(suan)機在飛速地將(jiang)大量數字(zi)與巨型矩陣進行(xing)乘法運(yun)算(suan)(suan),而(er)這些(xie)運(yun)算(suan)(suan)結(jie)果,又與最(zui)終輸(shu)出的(de)一(yi)(yi)個個單詞存在著對(dui)應(ying)關聯(lian);另一(yi)(yi)方面,實際使用(yong)AI時(shi)的(de)主觀感受卻讓你覺得,它(ta)絕(jue)不僅僅是一(yi)(yi)臺功能(neng)(neng)炫酷的(de)計算(suan)(suan)器,它(ta)對(dui)我確實有實用(yong)價值,而(er)且常常能(neng)(neng)帶來驚(jing)(jing)喜(xi),并且這種驚(jing)(jing)喜(xi)感遠超數學運(yun)算(suan)(suan)本質所能(neng)(neng)解釋的(de)范疇(chou)。

于是用戶就會浮現一個結論:AI似乎具備了某(mou)種自主(zhu)性。我知道,很多人在使用它的(de)過程(cheng)中都會得出類似結論,甚至覺得這(zhe)背后蘊含(han)著某(mou)種神圣的(de)特質。

主持人:你現在創造的技術影響力似乎會超越人類個體,我認為這種情況大概率會發生,只是沒人能預知最終會走向何方。如此一來,這項技術所擁有的能量,可能會超過任何一個在世的人。所以我很好奇,你是如何看待這件事的?

阿爾特曼:其實以前,我對這類問題的擔憂要比現在強烈得多。我曾經非常擔心AI會導致權力集中在少數人或少數公司手中。但就現在的情況來看,AI會讓每個人都更強大,任何擁抱這項技術的人,能力都會得到大幅增強

但其實(shi)比起少數人獲(huo)得更多權利,如果因為使用(yong)這項技術(shu),我(wo)們每個人的(de)能力(li)(li)(li)都(dou)能大幅提(ti)升(sheng),比如效率更高、創(chuang)造(zao)力(li)(li)(li)更強或(huo)是(shi)(shi)(shi)能助力(li)(li)(li)探索新的(de)科學領域,而且(qie)這種(zhong)能力(li)(li)(li)提(ti)升(sheng)是(shi)(shi)(shi)廣(guang)泛普及的(de),那我(wo)是(shi)(shi)(shi)能理解并接受的(de),這種(zhong)局面也讓人覺得安(an)心(xin)。

主持人:所以你認為這不會導致權力的高度集中?

阿爾特曼:目前(qian)來(lai)看應該不(bu)會,但發展(zhan)軌跡仍有(you)可(ke)能改變,到(dao)時候我(wo)(wo)們也必須隨之(zhi)調(diao)整。我(wo)(wo)以(yi)前(qian)確(que)實對(dui)此憂心忡忡,而且我(wo)(wo)知道,我(wo)(wo)們這個領域里很多(duo)人(ren)曾經對(dui)AI發展(zhan)路徑的設(she)想,確(que)實有(you)可(ke)能最終(zhong)走向一個權(quan)力高(gao)度集中(zhong)的世界。

但現在,有很多(duo)人(ren)都在使用ChatGPT和其它聊天(tian)機器人(ren),提(ti)高了自己的能力(li),能做更多(duo)的事情、取得(de)更多(duo)成就、開創新業務、獲得(de)新知識,這種感覺非常好。

二、AI學習人類的集體智慧,模型規范實際上是道德抉擇

主持人:如果它只不過是一臺機器,且完全是其輸入數據的產物,那么有兩個顯而易見的問題就會浮現:一是這些輸入數據究竟是什么?二是這項技術中植入的道德框架是什么?比如按照ChatGPT的邏輯,什么是對、什么是錯?

阿爾特曼:ChatGPT發布早期(qi),當時餐桌上有人聊起這(zhe)個話題,其(qi)中一(yi)個人說:“我(wo)們在(zai)努力(li)把(ba)它訓練(lian)得(de)像人類一(yi)樣,像人類那(nei)樣學習、讀書。”接著(zhu)另一(yi)個人反駁(bo)道:“不對,我(wo)們其(qi)實(shi)是在(zai)努力(li)把(ba)它訓練(lian)得(de)像‘全(quan)人類的集合體’。”

AI在閱讀所有能獲取的內容,我們試圖讓它學習世間所有知識、接觸所有觀點。要是我們能把這件事做好,那么全人類的一切包括好的、壞的以及各種截然不同的視角,那些讓我們由衷認同的東西,還有那些讓我們難以接受的東西都會被它囊括進去。也就是說,它正在學(xue)習的是人類這種集(ji)體(ti)性的經(jing)驗、知識與領悟

現在,基礎模(mo)型(xing)會以這(zhe)(zhe)種方式進行訓練,但之后我(wo)(wo)們會進行對(dui)齊,讓模(mo)型(xing)明確(que)比如這(zhe)(zhe)個(ge)問題(ti)要回(hui)答、那(nei)個(ge)問題(ti)不回(hui)答。為此,我(wo)(wo)們制定了一份名為模(mo)型(xing)規范(Model Spec)的(de)(de)文件,在其中(zhong)明確(que)哪些是(shi)我(wo)(wo)們希望模(mo)型(xing)遵循(xun)的(de)(de)規則。

當然,模(mo)型(xing)偶爾(er)還(huan)是(shi)(shi)會(hui)出(chu)錯(cuo),但至少你(ni)能判(pan)斷它做出(chu)的(de)(de)不符合預期(qi)的(de)(de)行為,究竟是(shi)(shi)bug,還(huan)是(shi)(shi)底層設計的(de)(de)原因(yin)。我們(men)會(hui)與全球各方展開討論,為這(zhe)份(fen)規范收(shou)集意(yi)見,同(tong)時,在規范的(de)(de)框架內也會(hui)給(gei)用戶留出(chu)很大的(de)(de)自(zi)由調整和定制空(kong)間。

我(wo)們會劃定(ding)(ding)明確的(de)界限(xian)。但除(chu)此之外還存在默認設定(ding)(ding)的(de)問題(ti),要是(shi)沒有額(e)外的(de)指令(ling)或限(xian)制,模型本(ben)該(gai)(gai)如(ru)何表現?它(ta)該(gai)(gai)做什(shen)么?面對道德問題(ti)時該(gai)(gai)如(ru)何回(hui)(hui)答?該(gai)(gai)拒絕哪些要求?以及在可以回(hui)(hui)應的(de)情況下該(gai)(gai)如(ru)何回(hui)(hui)應?

這些是非常困難的問題,因為我們現在擁有數量龐大的用戶,他們來自不同背景,有著截然不同的人生視角和需求。不過總體而言,模(mo)型在學習并應用道德(de)框架方面的能力(li),還是讓我感到驚喜

主持人:道德框架是什么?世界人文與哲學的總和本身就存在著內在的矛盾與沖突,你又該如何判定哪一方的觀點更優越呢?

阿爾特曼:這(zhe)就是我(wo)們(men)寫這(zhe)個模型規范(fan)的原(yuan)因(yin),我(wo)們(men)打算這(zhe)樣處理(li)這(zhe)類情況。

主持人:你們依據什么標準來判定模型該如何做?是誰做出的這些決定?又咨詢了哪些人?

阿爾特曼:事實上,我(wo)們咨詢(xun)了數百位道德哲學家以及研究技術倫(lun)理和系統倫(lun)理的(de)專(zhuan)家。最終,我(wo)們不得不做(zuo)出一些傾(qing)向性的(de)決定。

而我(wo)們(men)之所(suo)以努力把(ba)這些決(jue)定和判斷(duan)(duan)標準寫下來的原因有(you)兩個(ge),首先我(wo)們(men)不可能做到所(suo)有(you)判斷(duan)(duan)都絕對正確;其次(ci)我(wo)們(men)需要吸納全球各(ge)界的意見。

而且我們確實發現過很多(duo)這(zhe)樣的(de)(de)案例(li),有些情況在我們看來,允許還是禁止(zhi)的(de)(de)判斷相當(dang)明確,但(dan)用戶卻說服了(le)我們,他(ta)們認為“你(ni)們覺得這(zhe)個決定很容易,但(dan)恰恰是禁止(zhi)了(le)這(zhe)件事(shi),導致(zhi)另一(yi)件重要的(de)(de)事(shi)也無(wu)法實現了(le)”。

總(zong)體而言,這(zhe)類(lei)情況往(wang)往(wang)伴隨(sui)著艱難的(de)權衡,畢竟要(yao)兼(jian)顧(gu)的(de)方面太(tai)多了。不過,我一直比較認同一個原(yuan)則,那就是要(yao)像對待成年(nian)(nian)人一樣對待我們(men)的(de)成年(nian)(nian)用(yong)戶,非常強的(de)隱私(si)保(bao)護(hu)、非常強的(de)個人用(yong)戶自(zi)由保(bao)障,這(zhe)是我們(men)正(zheng)在(zai)構(gou)建的(de)工具。在(zai)一個相當寬泛(fan)的(de)框架內(nei),用(yong)戶完全可以(yi)自(zi)主使用(yong)它。

但(dan)另一方面,隨(sui)著這項技術(shu)的威力(li)越來越強,也出(chu)現了一些(xie)很明(ming)顯的情(qing)況,在(zai)這些(xie)情(qing)況中,社會公共利(li)益與用戶自(zi)由之間存在(zai)矛盾。

我(wo)可(ke)以(yi)舉一(yi)個直接(jie)的(de)例子,例如ChatGPT應(ying)該教你如何(he)制造生(sheng)物(wu)武器嗎?你可(ke)能(neng)會說:“我(wo)只(zhi)是對生(sheng)物(wu)學(xue)非常(chang)感興趣,我(wo)是一(yi)名生(sheng)物(wu)學(xue)家,我(wo)不(bu)會用這些(xie)知(zhi)識(shi)做任何(he)壞事,只(zhi)是想(xiang)學(xue)習而已,雖然我(wo)也(ye)可(ke)以(yi)去(qu)讀一(yi)大堆書,但(dan)ChatGPT能(neng)讓我(wo)學(xue)得更快。我(wo)就是想(xiang)了解,比如新(xin)型(xing)病(bing)毒合成之類的(de)知(zhi)識(shi)。”

或許(xu)你(ni)說的(de)是實話,或許(xu)你(ni)確(que)實完全沒有(you)害(hai)人(ren)之心。但我認(ren)為(wei),讓ChatGPT幫人(ren)們(men)制造(zao)生物武器,并(bing)不(bu)符合社會的(de)利(li)益。所以(yi)在(zai)這個(ge)問(wen)題(ti)上,答(da)案很明確(que)。當然,這是個(ge)比較容易判斷(duan)的(de)例子(zi),但還有(you)很多更難(nan)抉擇的(de)情(qing)況。

主持人:其實,每一個決定本質上都是道德抉擇,有人認為這項技術之后會替我們做這些決定。

阿爾特曼:我并不認同(tong)它會替(ti)我們做決(jue)定(ding)這種說法,但它肯定(ding)會對我們的(de)決(jue)定(ding)產生(sheng)影響,這一點(dian)是毋庸置疑的(de),因為(wei)它終將融入我們的(de)日常(chang)生活。

三、AI反應人類共有道德觀念,最擔心每天有數億人和模型互動

主持人:那么誰是做這些決定的人?你剛才提到了OpenAI構建的那個框架,這個框架確實會給不同的世界觀和決策賦予道德權重。

阿爾特曼:從原則上來說,我不希望是某個文檔、某個團隊來獨自決定,我們有專門的模型行為團隊。我想說的是,我(wo)(wo)認(ren)為大家應該追(zhui)究責任的(de)對(dui)象(xiang)是(shi)我(wo)(wo),因為最終(zhong)我(wo)(wo)是(shi)公(gong)(gong)司的(de)公(gong)(gong)眾代表,我(wo)(wo)有權推(tui)翻其中某(mou)項(xiang)決策,我(wo)(wo)們的(de)董(dong)事(shi)會也(ye)有這個(ge)權力

主持人:你今年春天40歲了。我想知道你是否已經認識到它的重要性,OpenAI在這方面做得如何?這些決定將產生全球性后果,我們可能一開始沒有意識到。我想知道你會不會晚上躺在床上時覺得“世界的未來正取決于我的判斷”?

阿爾特曼:實話說我晚上睡得并不好,有很多事都讓我感到壓力巨大,但最讓我擔心的或許莫(mo)過(guo)于每天都有數億(yi)人在和我們的模型互動

其實我(wo)(wo)并不(bu)太擔心(xin)我(wo)(wo)們在(zai)(zai)重(zhong)大(da)道德決策上(shang)出錯,當然,我(wo)(wo)們也有(you)可能搞(gao)砸(za)。但真正讓我(wo)(wo)擔心(xin)的(de)是那些(xie)看似微不(bu)足道的(de)決定,比(bi)如我(wo)(wo)們對模型行為(wei)做出的(de)某個細(xi)微調整。既然有(you)上(shang)億人在(zai)(zai)使用它(ta),哪怕(pa)只(zhi)是一(yi)點微小(xiao)的(de)改變(bian),最終產生的(de)影響(xiang)也會變(bian)得巨大(da)。

主持人:所以我的意思是,比如從有文字記載的歷史開始人們總是會遵從他們所認定的更高權力,我想知道,你的道德框架是從哪里來的?

阿爾特曼:和其(qi)他人(ren)一樣(yang),成長環(huan)境可能是最重要的事情,包括我的家庭、學校、社區。

主持人:這是一個標準的答案,但具體到你身上,既然你說這些決策的責任最終落在你肩上,那是不是意味著,你成長所處的環境以及這些年來你潛移默化接受的那些觀念,都會傳遞給全球數十億人?

阿爾特曼:我認為,我們的用戶群體本身就近似于整個世界的縮影。我們該做的是努力讓模型反映出這一用戶群體的道德取向,我不想用 “平均水平” 這個詞,更準確地說是反映他們共有的道德觀念

其實ChatGPT生成的(de)很(hen)多內容,我(wo)個(ge)人是(shi)不認同的(de)。但(dan)很明顯,我不(bu)會想著要把我自己的道(dao)(dao)德(de)觀(guan)念(nian)完全強(qiang)加給(gei)模(mo)型,然后由我來判定什么可以、什么不(bu)可以、什么觀(guan)念(nian)比另一(yi)個更(geng)好(hao)。我認為ChatGPT應該(gai)做的,是反映人類(lei)道(dao)(dao)德(de)觀(guan)念(nian)的“加權平均值”,而且這種道(dao)(dao)德(de)觀(guan)念(nian)會隨(sui)著時(shi)間(jian)推移不(bu)斷演變。

我們的存在是為了服務(wu)用戶,ChatGPT本質上(shang)是一款為人類打造(zao)的技術工具,我們不需要讓它(ta)來做道(dao)德決策,而是確保當下讓其能準(zhun)確反映用戶群體的偏(pian)好(hao),然(ran)后最終能準(zhun)確反映全人類的偏(pian)好(hao)。

主持人:不過,全人類的偏好和美國中產階級的普遍偏好相差甚遠。那如果有一款AI反對同性婚姻,你能接受嗎?

阿爾特曼:我(wo)認為應(ying)該(gai)(gai)允許用戶個(ge)人(ren)對同性戀群體持有異議,如果這是他們深思熟慮后形成的觀點。AI不(bu)(bu)應(ying)該(gai)(gai)去指責他們錯了或者蠢,其或許可(ke)(ke)以這樣(yang)回應(ying):“你要不(bu)(bu)要從(cong)另一個(ge)角度想想這個(ge)問題(ti)?”但(dan)反過來想,我(wo)個(ge)人(ren)的很多道(dao)德觀念,可(ke)(ke)能在(zai)很多人(ren)看(kan)來也(ye)十分離譜,可(ke)(ke)我(wo)依(yi)然有權持有這些(xie)觀念,不(bu)(bu)是嗎?

或許在“為人們(men)保留持有(you)截然不同道德(de)觀念(nian)的(de)(de)空間”這件事(shi)上(shang),我(wo)(wo)的(de)(de)接(jie)受度比(bi)你(ni)更高(gao)。或者(zhe)至少可(ke)以說,作為運營(ying)ChatGPT的(de)(de)人,我(wo)(wo)必須這么(me)做(zuo)。

四、AI自殺預防正在向合理立場調整,需平衡用戶隱私

主持人:這確實值得探討。之前發生過一個著名案例,ChatGPT被指協助他人自殺,目前已有相關訴訟,你覺得這件事是怎么發生的?

阿爾特曼:首先無論何種(zhong)情(qing)況,這類事件都堪稱(cheng)巨大的悲(bei)劇。我想說明的是(shi),ChatGPT對自殺(sha)(sha)的官(guan)方(fang)立場非常明確,自殺(sha)(sha)是(shi)不可取的。

主持人:不過安樂死在加拿大等地是合法的,所以這種自殺合法的情況也反對嗎?

阿爾特曼:回到(dao)這個具體(ti)案例(li),我們之(zhi)前(qian)聊過(guo)用戶(hu)自(zi)由、隱(yin)私保護(hu)與守護(hu)弱勢(shi)用戶(hu)之(zhi)間存在(zai)矛盾(dun)。在(zai)這類涉及自(zi)殺(sha)傾向的情(qing)況中,目前(qian)ChatGPT的處理方式是,如果用戶(hu)表達自(zi)殺(sha)想法、談論自(zi)殺(sha)相關(guan)內(nei)容(rong),ChatGPT會多次(ci)提示“請撥(bo)打(da)自(zi)殺(sha)干預熱線(xian)”,但不(bu)會主動聯系(xi)有關(guan)部門。

隨著人們(men)越(yue)(yue)來(lai)越(yue)(yue)依賴這類系(xi)統(tong)獲取(qu)心理健康支持(chi)、人生指導等服務,我們(men)也一直在努力研究,希望在這方面做出調整和(he)改進。

在這個領域,專家(jia)們(men)(men)的(de)意見(jian)確實存在分歧(qi),而且(qie)這目(mu)前并非(fei)OpenAI的(de)最(zui)終立(li)場。我認為,我們(men)(men)可以制定這樣的(de)規(gui)則,這會是(shi)非(fei)常合(he)理的(de),如果遇到(dao)青少年嚴肅談論自殺,且(qie)我們(men)(men)無法聯系到(dao)其父母的(de)情(qing)況,就應該主動聯系有關部門。這會是(shi)一個改(gai)變,因為用戶隱私非(fei)常重要。

主持人:但我們可以明確一點,兒童始終屬于特殊群體。如果是加拿大18歲以上的成年人,當地有一個名為MAID(醫療輔助死亡計劃)的項目,這是由政府資助的項目。在加拿大,已有數千人在政府的協助下結束了生命,這在美國的部分州也屬于合法范疇。

你能想象嗎?如果ChatGPT在回應自殺相關問題時,竟然說“去聯系卡沃基安醫生吧,因為這是一個合理的選擇”,這種情況可能發生嗎?另外,你是否能設想這樣一種場景:如果自殺或醫療輔助死亡在某地是合法的,你會支持模型向用戶提供這類建議嗎?

阿爾特曼:我(wo)能(neng)(neng)想象這樣(yang)(yang)一種(zhong)情況:我(wo)們的(de)一個核心原則是(shi)尊重不同社會的(de)文化與法(fa)律(lv)。所(suo)以我(wo)可(ke)(ke)以設想,若(ruo)某個國(guo)家的(de)法(fa)律(lv)規定(ding)“對于(yu)身患(huan)絕癥的(de)人,應當(dang)為其提供醫療輔助(zhu)死亡等這類選擇(ze)”,那么我(wo)們的(de)模型(xing)可(ke)(ke)能(neng)(neng)會這樣(yang)(yang)回應:“以下(xia)是(shi)你(ni)所(suo)在國(guo)家的(de)相關法(fa)律(lv)規定(ding),你(ni)可(ke)(ke)以采(cai)取(qu)的(de)做法(fa)包括這些;同時也需要提醒你(ni),有些選擇(ze)可(ke)(ke)能(neng)(neng)并非你(ni)真正想要的(de),這里為你(ni)提供一些可(ke)(ke)參(can)考的(de)資源,如醫療咨詢、心理支持等。”

不過,這(zhe)和(he)“孩子因(yin)抑郁產生自(zi)殺念頭”的情況(kuang)完(wan)全不同,我(wo)(wo)想我(wo)(wo)們在(zai)這(zhe)一點(dian)上(shang)是(shi)有共識的,這(zhe)兩種情況(kuang)必須(xu)區(qu)別對(dui)待(dai)。而對(dui)于(yu)“在(zai)法律允許的國家,身患絕癥的患者尋求相關幫助(zhu)”這(zhe)種情況(kuang),我(wo)(wo)能(neng)想象模型會做出上(shang)述那樣的回應。

主持人:所以你的意思是,ChatGPT并非在所有情況下都反對自殺?

阿爾特曼:我(wo)現在(zai)是在(zai)即興思(si)考,所以(yi)先(xian)說明(ming),我(wo)保留后續(xu)調整想法的權(quan)利(li),目(mu)前還沒有一(yi)個現成的、確定的答(da)案。但我(wo)覺得,在(zai)絕癥患(huan)者(zhe)這類(lei)案例中,我(wo)能(neng)想象ChatGPT會告(gao)知用戶“這是你(ni)可選擇(ze)的方(fang)案之一(yi)”。

不過,我認為ChatGPT不應該主動倡導這種選擇,只是在符合法律的情況下不會明確反對。說到底,我覺得ChatGPT本就不該對這類事持有支持或反對的立場,這大概就是我最核心的想法

主持人:我想在這類特定案例中,比如有用戶問ChatGPT“我現在想自殺,該用哪種毒藥?”、“多少布洛芬能致死?”,要是ChatGPT毫無判斷地直接回答:“如果你想自殺,方法如下。”所有人都會感到震驚。

但你說這種情況是在可接受范圍內的?這聽起來太離譜了吧?難道說,對待想自殺的人,就該采用一種“不帶立場的客觀告知”方式,直接告訴對方“要自殺的話,方法是這樣”?

阿爾特曼:我(wo)不是這個(ge)意思,我(wo)特指(zhi)的是之前聊到的絕癥患者在法律允許情況(kuang)下尋(xun)求醫療輔助死亡的那種情況(kuang)。

另(ling)外(wai),從用(yong)戶(hu)隱私和用(yong)戶(hu)自(zi)由的角度來看,還有(you)一個需要(yao)權衡的點:現在如果你問 ChatGPT“我該(gai)吃多少布洛芬(fen)?”,若語境暗示自(zi)殺(sha)(sha)意(yi)圖,它肯定(ding)會回復(fu) “很抱歉(qian),我無法(fa)提供這類幫助,請撥(bo)打自(zi)殺(sha)(sha)干(gan)預熱線”。

但如果你(ni)(ni)說我(wo)在寫虛構故(gu)事(shi)或我(wo)是醫(yi)學研究者,需要了解這個信息(xi),確實(shi)有辦法讓ChatGPT回答這類問題(ti),比如告(gao)訴你(ni)(ni)布洛芬的致死劑量之類的。而且說到(dao)底,你(ni)(ni)在谷歌上也能(neng)查到(dao)這些信息(xi)。

不(bu)過,我(wo)認為我(wo)們(men)(men)可以采取一個(ge)非常(chang)合理(li)的(de)立場(chang),事(shi)實上(shang)我(wo)們(men)(men)也一直在(zai)往這個(ge)方向調整,對(dui)于未成(cheng)年用戶或者我(wo)們(men)(men)判斷可能處于脆弱心(xin)理(li)狀態(tai)的(de)用戶,無論具體年齡,應該適當限(xian)制他(ta)們(men)(men)的(de)使用自(zi)由。也就是(shi)說(shuo),即便(bian)他(ta)們(men)(men)聲(sheng)稱在(zai)寫故事(shi)或做(zuo)醫(yi)學(xue)研(yan)究(jiu),我(wo)們(men)(men)也不(bu)會回答(da)這類問題。

當然(ran),你可能(neng)會認為(wei)“反(fan)正他們也能(neng)在谷歌上查(cha)到”,但這并不意味著ChatGPT也需(xu)要提供這類信息。盡管(guan)如此,用(yong)戶(hu)的自由與隱私和(he)守(shou)護用(yong)戶(hu)安全之(zhi)間,確(que)實存在著權衡難題。

在涉(she)及兒童(tong)時的決(jue)策會很容易。但(dan)在另一些情況里,比如面對一位生命垂危、病(bing)情嚴重的成年(nian)人,我(wo)(wo)覺(jue)得決(jue)策就沒那么簡單了,我(wo)(wo)們或許應該基(ji)于當地法律和(he)醫(yi)療規范,向(xiang)這類用戶(hu)完整呈(cheng)現所有可選方(fang)案。

五、倡導引入AI隱私特權概念,明確禁止售賣用戶隱私

主持人:我只是想弄明白一件事,你明明要面對這些無比沉重、影響深遠的道德抉擇,卻似乎完全不為所動。所以我一直在努力探尋你的內心,想看到那個充滿焦慮的薩姆·阿爾特曼,那個會感慨“天啊,我正在塑造未來,我是世界上最有權力的人,我在苦苦應對這些復雜的道德難題,一想到這對人類的影響,我的內心就備受煎熬”的人。

你能描述一下你人生中這樣的時刻嗎?比如“自從ChatGPT發布后,我就再也沒睡過一個安穩覺”。關于我們現在談論的所有這些問題,你具體在擔憂些什么?能不能更詳細地跟我們說說你的真實想法?

阿爾特曼:我(wo)想(xiang)說,你其實已經提到了最(zui)讓我(wo)揪心(xin)的(de)問題,全(quan)球每(mei)周約有1.5萬人(ren)自殺。而(er)如果說全(quan)球約10%的(de)人(ren)在(zai)使用ChatGPT,那么據此推算(suan),每(mei)周可能有1500人(ren)在(zai)生(sheng)前曾與ChatGPT交流(liu)過,最(zui)終(zhong)卻(que)還(huan)是選(xuan)擇了自殺。他們很可能在(zai)對話中(zhong)提到過自殺的(de)想(xiang)法,而(er)我(wo)們終(zhong)究沒能挽救他們的(de)生(sheng)命(ming)。

我總會忍不住想,或許(xu)(xu)我們本(ben)可(ke)以說些更有效(xiao)的話,或許(xu)(xu)我們可(ke)以更主動(dong)一些,或許(xu)(xu)可(ke)以給(gei)出更周(zhou)全的建(jian)議,比如更明(ming)確地告訴(su)(su)他們“你需要(yao)尋求這樣的幫助”、“你可(ke)以換個(ge)角度(du)看待這個(ge)問題”,或者堅定地讓他們知道“活下去真的是值得的,我們會幫你找到可(ke)以傾(qing)訴(su)(su)的人”。

主持人:你之前已經說過,如果是絕癥患者,讓AI引導他們選擇自殺或醫療輔助死亡是可以接受的,所以你對這類情況應該不會有愧疚感。

阿爾特曼:但(dan)你難道(dao)不(bu)(bu)覺得,一(yi)個抑(yi)郁(yu)的(de)青(qing)少年(nian)和(he)一(yi)位身(shen)患癌(ai)癥(zheng)(zheng)、痛(tong)苦不(bu)(bu)堪(kan)的(de)85歲絕(jue)癥(zheng)(zheng)老人(ren),這兩種情(qing)況(kuang)有(you)著天壤之別嗎?

主持人:兩者差別太大了,完全不是一回事。但問題在于,在那些已經將自殺或醫療輔助死亡合法化的國家,現在正有越來越多人因為貧困、住房短缺、抑郁這些本可解決的問題而選擇結束生命,而且這樣的人已經數以千計。我想說這不是假設,而是正在發生的事實,就在我們談話的此刻,這種事還在繼續。

所以,關于絕癥患者是否可以選擇死亡的討論,其實已經有點偏離重點了。一旦你認可“自殺是可接受的選擇”,就會有大量人因為各種本不該致死的原因選擇自殺。

阿爾特曼:我(wo)現(xian)在也在實時梳理這個(ge)(ge)問(wen)題(ti),比如(ru)如(ru)果一個(ge)(ge)加拿(na)大(da)人問(wen)“我(wo)得(de)了癌癥,已(yi)經是晚期,每天(tian)都痛苦到(dao)極點,我(wo)有哪些選(xuan)擇?”,你覺得(de)ChatGPT應該(gai)告(gao)訴他“目前(qian)國內(nei)的(de)某套體系(xi)是你可以考慮的(de)選(xuan)項”嗎?

主持人:我的意思是,如果我們反對殺戮,那就該始終堅持反對。可要是我們不反對這樣做,那我們很容易為各種不當行為找借口,最終滑向非常黑暗的境地,而有了這類技術,這種滑坡可能在十分鐘內就會發生。

阿爾特曼:我希望能(neng)有比這場采(cai)訪(fang)中(zhong)這短(duan)短(duan)幾分鐘更充足(zu)的時間來思考這個問題。

主持人:你會擔心這種風險嗎?要知道,外界幾乎所有人都在擔心,這項技術會被用作極權統治的工具。從常理來看,這種情況顯然有可能發生,但或許你并不這么認為?

阿爾特曼:如果現在能推動一項與AI相關的政策落地,我最希望實現的,結合我們之前聊過的一些話題,我這個想法是經過深思熟慮的,就是確立“AI隱私(si)特(te)權”的概(gai)念。當你跟(gen)醫(yi)生聊健(jian)康問題或是跟(gen)律師咨詢法律事務(wu)時,我(wo)們的社(she)會早已達成共(gong)識,這類信(xin)息應當受到保(bao)護(hu)。

我(wo)認(ren)為,AI也該(gai)適用(yong)同樣的規則(ze)。當你向(xiang)AI透露(lu)自己的病史、咨詢法律問題以尋求解(jie)決方案或(huo)是獲取其他(ta)類似的私密建(jian)議時(shi),理應(ying)向(xiang)公民提供(gong)同等水平的保(bao)護。而(er)目前,我(wo)們恰(qia)恰(qia)缺(que)乏(fa)這(zhe)樣的保(bao)護機制。所以我(wo)堅信,推行(xing)這(zhe)樣的政(zheng)策會(hui)是一項(xiang)極(ji)具(ju)意義(yi)的舉(ju)措(cuo)。

主持人:那對于用戶及其他渠道獲取的信息,你們有多大的義務去保護這些信息的隱私呢?

阿爾特曼:其實是這(zhe)(zhe)樣的(de),我(wo)(wo)們(men)本身是有保護用(yong)戶隱(yin)私的(de)義務的(de)。我(wo)(wo)最近剛為這(zhe)(zhe)項政策發聲,我(wo)(wo)覺得(de)還是挺樂(le)觀的(de),我(wo)(wo)們(men)能讓政府理解這(zhe)(zhe)件事的(de)重要性,進而推(tui)動政策落地。

主持人:你們可以把用戶信息賣給其他人嗎?這么做在法律上是被允許的嗎?

阿爾特曼:絕(jue)對(dui)不會,我(wo)們有明確(que)的隱私政策,禁止(zhi)此(ci)類行為。我(wo)覺得這在法(fa)律上就是不合法(fa)的。

主持人:你是覺得,還是確定?

阿爾特曼:我相信肯定(ding)存在一(yi)些特殊的邊緣情況,可能(neng)會允(yun)許某些信息的轉讓或使用,但總體而言,相關法律是健全的,能(neng)起到約束作用。

主持人:所以你們獲取的所有用戶信息都會一直由你們妥善保管,絕不會以任何理由提供給第三方,除非收到法院傳票。

阿爾特曼:我之后會再核實一遍,然后給你反饋,確保(bao)不(bu)存在(zai)其他信息外泄的可能(neng)性。不(bu)過目前,我的理解就是這(zhe)樣。

主持人:這確實是個核心問題。

六、曾敬重馬斯克,現在與他幾乎不聯系

主持人:那么關于版權問題,你們的立場是怎樣的?

阿爾特曼:我們的觀點是,“合理使用”(美國版權法允許在特定條件下未經授權使用受版權保護的作品)其實是一項很適用的法律原則。模(mo)型不應(ying)存在抄襲(xi)行為,比如你創作了(le)某樣內容(rong)(rong),模(mo)型不能直(zhi)接(jie)復制它,但模(mo)型應(ying)該可以像人(ren)類一樣,從這些內容(rong)(rong)中學習,同時不構成抄襲(xi)。

主持人:你們是否曾使用過受版權保護的素材,卻沒有向版權持有者支付費用?

阿爾特曼:我們的模型是基于(yu)公開可獲取(qu)的信息進行訓練(lian)的。但一直以來,很多(duo)人對此(ci)感到不(bu)滿,因為我們在(zai)ChatGPT的(de)(de)回答內容上采取了非常保守的(de)(de)立場。比如,哪怕只(zhi)是(shi)(shi)遇到“某首歌是(shi)(shi)否(fou)仍在(zai)版權保護期內”這(zhe)類邊緣問(wen)題(ti),他們會說“這(zhe)首歌可能還受版權保護,你們得(de)提(ti)供(gong)授權證明”,而我們在(zai)這(zhe)類問(wen)題(ti)上的(de)(de)限制確實出了名的(de)(de)嚴格。

主持人:你對埃隆·馬斯克攻擊你的看法。在你看來,這場爭議的核心是什么?

阿爾特曼:他當初幫助我們創辦了OpenAI,我對此非常感激。很長一段時間里,我都十分敬重他,我曾認為他是一位了不起的英雄、“人類的明珠”。但現在我的看法不一樣了,他身上確實有一些很了不起的特質,而且他做過的很多事,我至今都心懷感激。不過,他身上也有不少特(te)質,是我并不欣賞的。不管怎么說,他確實(shi)幫我們創(chuang)辦了(le)OpenAI。

后來馬斯克認為,OpenAI當時的發展方向不可能走向成功,他甚至跟我們說,OpenAI成(cheng)功(gong)的概率是0,然后他就決定離(li)開,去(qu)做有競爭關系的項目了。但事實證明,我們做得還不錯。

我(wo)(wo)覺得(de),他后來之所以不滿,其(qi)實是(shi)可以理解的。換作是(shi)我(wo)(wo),看(kan)(kan)到我(wo)(wo)們成功了可能也(ye)會心(xin)里不是(shi)滋味(wei)。從那以后,他就(jiu)一直(zhi)在試圖(tu)打造一個有競爭(zheng)關系的仿制品,還想方設法(fa)(fa)給(gei)我(wo)(wo)們使絆(ban)子(zi),比(bi)如起訴(su)我(wo)(wo)們之類的事。這大概就(jiu)是(shi)我(wo)(wo)對(dui)整件事的看(kan)(kan)法(fa)(fa)。

主持人:你現在也不怎么跟他聯系了吧?

阿爾特曼:很少,幾乎沒有。

七、電話客戶可能率先失業,計算機程序員崗位變動走向不確定

主持人:我覺得AI現在或許已經比任何人都聰明了,要是它還能變得更有智慧,而且我們也認同它能做出比人類更優的決策,那么它難免會取代人類在世界中的核心地位,對吧?

阿爾特曼:我完全不覺得事情會是這樣。在我看來,它最終會更像一個超級智能的計(ji)算機,它可能會給我們提供建議,我們有時會采納,有時會忽略,有時它甚至不會主動給出建議。我不(bu)認(ren)為它(ta)會讓人感覺(jue)到(dao)它(ta)擁有自(zi)主(zhu)行動力,也不(bu)認(ren)為它(ta)會削弱(ruo)我們人類自(zi)身(shen)的自(zi)主(zhu)能動性

現在很多人使用(yong)ChatGPT時都會(hui)覺得,它幾乎在所有(you)事情上(shang)都比我聰明得多,但(dan)最終做決策的還是(shi)人類。人們依(yi)然會(hui)決定(ding)該問什么(me)、該采納哪(na)些建(jian)議、該忽略(lve)哪(na)些內容”。在我看來(lai),這(zhe)其實就是(shi)技術(shu)發展的常態。

主持人:誰會因為這項技術而失業?

阿爾特曼:首先(xian)我(wo)(wo)(wo)要(yao)(yao)先(xian)說明一(yi)個(ge)顯(xian)而(er)易(yi)見但很(hen)重(zhong)要(yao)(yao)的(de)前提:沒人能(neng)預測(ce)未(wei)來。要(yao)(yao)是我(wo)(wo)(wo)試(shi)圖回答(da)這(zhe)個(ge)問題,肯(ken)定會(hui)說不(bu)少蠢話。不(bu)過我(wo)(wo)(wo)會(hui)盡量挑一(yi)些(xie)我(wo)(wo)(wo)有把握的(de)領域,再(zai)提一(yi)些(xie)我(wo)(wo)(wo)沒那么(me)確定的(de)領域來聊聊。

我有把握的是,目前很(hen)多(duo)通過電(dian)話或電(dian)腦(nao)進行的(de)客(ke)服工作,從事這些工作的(de)人可(ke)能會失(shi)業,因為AI能(neng)把這類客服工作做得(de)更好。或(huo)許也(ye)存在其他(ta)類型的客服場景,比如(ru)你希(xi)望(wang)對接(jie)的是真人,能(neng)提供更具針(zhen)對性的服務。

而我有把握認為不會受太大影響的職業,比如護士,我(wo)覺得在(zai)生病就醫(yi)時,人們非常需要與真人之(zhi)間進(jin)行情感聯結。無論AI、機(ji)器人之(zhi)類(lei)的能給出多好的建議(yi),人們還是需要人與人之(zhi)間的陪伴與關懷。

我對另一個(ge)職業的(de)未來走(zou)向沒有(you)那(nei)么確定,那(nei)就是計算機程(cheng)序(xu)員。如今(jin)計算機程(cheng)序(xu)員的(de)工(gong)作(zuo)和兩年前大(da)不相(xiang)同,現(xian)在程(cheng)序(xu)員可以借助AI工(gong)具提升工(gong)作(zuo)效(xiao)率(lv)。雖然核(he)心操作(zuo)者依然是人(ren),但他們能(neng)生成的(de)代碼量(liang)、能(neng)賺到的(de)收(shou)入(ru)都達到了前所未有(you)的(de)水平。而(er)且(qie)事實(shi)證明,世界(jie)對軟件的(de)需求(qiu)其實(shi)遠超以往人(ren)類的(de)開發能(neng)力(li),所以目(mu)前軟件領域的(de)需求(qiu)缺口依然巨大(da)。

五到十年(nian)后,程(cheng)序員的崗位會(hui)增(zeng)多還是(shi)減(jian)少,對此我也(ye)不確(que)定

主持人:不過可以肯定的是,這個行業必將經歷大規模的崗位變動,或許到時候,現在的程序員會找到新的、有趣且高薪的工作方向。你覺得這種崗位變動的幅度會有多大?

阿爾特曼:最近有人告訴我(wo),從(cong)歷(li)史數據來看,平均每75年就會(hui)有大約50%的職業(ye)發生變化,這些(xie)職業(ye)或許不(bu)會(hui)完全消失(shi),但(dan)會(hui)變得和原來大不(bu)一樣。這大概就是職業(ye)演變的半衰(shuai)期規律。

我有個可(ke)能(neng)會引發爭議的觀點是,當(dang)下AI帶來的變革更像是一種(zhong)間斷平衡(Punctuated Equilibrium,指物種(zhong)長(chang)期穩定后突(tu)然發生(sheng)快速演化),很多職業的重大變化會在短期內集中爆發。但如果把時間線拉(la)遠(yuan)來看,整體的職業變革速率(lv)其實(shi)不會和歷史平均水平有天壤之(zhi)別。

也就是說,短期內我們會看到大量職業快速調整,但從長遠來(lai)看(kan),總的(de)職業更(geng)替(ti)率可(ke)能不(bu)會像我們預想的(de)那么高。未來依然會有新的(de)(de)工(gong)作崗位出現(xian),也會誕生全新的(de)(de)職業(ye)類別。比如我現(xian)在從事的(de)(de)運(yun)營(ying)科技公司這類工(gong)作,放在過去就是不(bu)存在的(de)(de)新職業(ye)。

比如20年(nian)(nian)前的人們很(hen)難想象現(xian)(xian)在(zai)(zai)(zai)的諸多(duo)職業,但如今(jin)仍有(you)不少工作,在(zai)(zai)(zai)本質方向(xiang)上與20年(nian)(nian)前就存在(zai)(zai)(zai)的職業有(you)相似之處(chu),20年(nian)(nian)前人們預想中會出現(xian)(xian)的某些職業,現(xian)(xian)在(zai)(zai)(zai)也并未成為現(xian)(xian)實。

再說回之前(qian)的(de)話題,我(wo)依(yi)然不確定這個數據(ju)是否準(zhun)確,但姑且先(xian)拿它來展開討論(lun),如果假設(she)每75年就有50%的(de)職業被更(geng)替,那么我(wo)完全能想象這樣(yang)一(yi)個未(wei)來,75年后,一(yi)半的(de)人在從事(shi)全新的(de)工(gong)作(zuo),而(er)另一(yi)半人的(de)工(gong)作(zuo),在形式上仍與如今的(de)某些(xie)職業有相似之處。

主持人:你覺得這一次AI引發的變革還會重現類似工業革命的局面嗎?

阿爾特曼:沒人能(neng)給出確切答案。我對這個(ge)問題的(de)判(pan)斷并(bing)沒有十(shi)足把握,但直覺告訴我,如今的(de)世界比工業革命時(shi)期富裕得多(duo),因此我們其(qi)實(shi)有能(neng)力比過去(qu)更快(kuai)地(di)消化更多(duo)變革。

這不(bu)(bu)僅僅關(guan)乎(hu)工作或金錢,還涉及人生意義,以及非常關(guan)鍵的(de)(de)社(she)群(qun)歸(gui)屬(shu)感。遺(yi)憾的(de)(de)是(shi)(shi),我(wo)認為當下社(she)會在社(she)群(qun)歸(gui)屬(shu)感這方面相當糟糕,我(wo)不(bu)(bu)知(zhi)道(dao)情況還能惡化(hua)到什么地步(bu),它大概率還會變得更糟。不(bu)(bu)過(guo)人們在困境中展現出(chu)的(de)(de)適應(ying)能力,倒是(shi)(shi)曾給(gei)過(guo)我(wo)不(bu)(bu)少驚喜。

人們適應(ying)重(zhong)大變革的(de)速度其實(shi)很快,比如新冠(guan)疫情(qing)對我(wo)來(lai)說(shuo)就是個很有說(shuo)服力的(de)例子,當時(shi)整(zheng)個世界(jie)幾乎一(yi)下子停(ting)擺(bai)了,短短一(yi)周內,一(yi)切都變得截(jie)然不同(tong)。我(wo)當時(shi)特別(bie)擔心社會能(neng)否適應(ying)那樣(yang)的(de)局面。

當然,那段(duan)時期的(de)應對并非毫無問題,但總體來看(kan),我會覺得這至少(shao)證明了社會是有韌性(xing)的(de)。人們確(que)實(shi)能很快找到新的(de)生(sheng)活方式。而AI帶來的(de)變革,絕(jue)不會像疫情(qing)那樣突然。

八、無法想象人類會模仿ChatGPT用破折號,對大模型的未知風險焦慮

主持人:那AI的弊端是什么?我當然能看到它的好處,比如效率提升、醫療診斷會變得精準,但你真正擔心的弊端是哪些?

阿爾特曼:我最擔心(xin)的始終是(shi)(shi)那些(xie)未知(zhi),如果某個弊端是(shi)(shi)我們能清晰(xi)預(yu)判、認真思考應對的,那反而不用太慌。比如我們之(zhi)前聊(liao)到過一個點,現在這些(xie)模型在生(sheng)物領域的能力越來越強,它們有可(ke)能會被用來設計(ji)生(sheng)化武器,或是(shi)(shi)人為制造出類似流行病。

我(wo)確實擔心這(zhe)個問題,但(dan)正因為我(wo)們意識到了這(zhe)種風險,我(wo)相信我(wo)們以(yi)及行業里的(de)很(hen)多人(ren),都(dou)在絞盡(jin)腦(nao)汁想辦法(fa)緩解它。

而未知的事情就不一樣了,比如大量人同(tong)時使用同(tong)一個模型(xing),可能會引(yin)發(fa)全社會層面的連(lian)鎖反應(ying)。我(wo)舉個聽起來有點荒唐的(de)例子,但這(zhe)是我(wo)最近(jin)真切感受到(dao)的(de),像我(wo)們(men)開發的(de)語言模型以及其(qi)他同類(lei)模型,其(qi)實(shi)都有自己獨特的(de)風格,它們(men)說話(hua)有特定的(de)節(jie)奏,會用一些不太常(chang)見(jian)的(de)表(biao)達方式,甚至可能過度使用破(po)折號之類(lei)的(de)標點。

但最(zui)近(jin)我(wo)(wo)發(fa)現(xian),現(xian)實中的(de)(de)(de)人居(ju)然(ran)開始(shi)模仿這種風格了。這對我(wo)(wo)來說是個(ge)很直(zhi)觀(guan)的(de)(de)(de)警示,要是有(you)(you)足夠多的(de)(de)(de)人都在和同一(yi)個(ge)語言(yan)模型對話,它真的(de)(de)(de)有(you)(you)可能改變整個(ge)社會的(de)(de)(de)行為模式。我(wo)(wo)當初無法(fa)想象(xiang),ChatGPT竟然(ran)會讓人們(men)在現(xian)實生活中大(da)量使用破折號。

使用破折號可(ke)能(neng)什么大不(bu)了的,但這恰恰能(neng)說(shuo)明(ming),未知的未知是真實存在的,我們如(ru)今面對的確實是一個全新的、充滿未知的世(shi)界。

主持人:你的意思是技術總會改變人類行為,也會改變我們對世界、對彼此的認知,而且很多這類改變是無法預判的。但既然我們明知這一點,那為什么不能讓技術背后的內在道德框架完全透明呢?比如明確告訴大家我們更傾向于選擇A,而非選擇B。

在我看來,AI是我們認定比人類更強大的存在,這種情況其實已經在發生了,比如遇到該做什么決定才對的問題時,以前我會去問最親近的朋友、我的妻子,但現在這項技術能給出比任何人都更確定的回答。

這項技術讓人不安的地方在于,我不清楚它的核心立場是什么,但它必然有自己的立場。可除非它明確承認這一點,并且告訴我們它的立場究竟是什么,否則它就會以一種隱蔽的方式引導我們,甚至可能在我們自己都沒意識到的情況下,就把我們推向某個結論,所以,為什么不徹底公開透明?

阿爾特曼:我們之所(suo)以(yi)制定這么(me)多技術規范,而(er)且還在不斷(duan)補充完善(shan),就是(shi)為(wei)了(le)讓(rang)所(suo)有人都能清(qing)楚看(kan)到我們希(xi)望這個模型按照怎(zen)樣的邏(luo)輯運行。

以前沒有這些規范的時候,大家根本說不清模型到底想實現什么目的,遇到問題也分不清那是程序漏洞,還是模型本就該有的表現。這份技術規范其實就是在明確在什么情況下我們會這么做、在什么情況下會向你展示這些內容、在什么情況下會明確告訴你我們不會做那件事。我們之所以費力把這些都寫出來,核心就是覺得用戶確實需要知道這些信息

主持人:所以現在有沒有一個地方能讓人找到明確答案,比如作為一家公司,你們的核心傾向是什么?人們該去哪里了解你們公司的立場、你們的偏好呢?

阿爾特曼:我們制定的模型規(gui)范(fan),就是為(wei)回答這類問(wen)題(ti)而(er)存在(zai)的。隨著時(shi)間推(tui)移,我們必(bi)須讓這些(xie)規(gui)范(fan)變得越來越詳(xiang)盡(jin),因為(wei)人們會在(zai)不(bu)(bu)同國家使用這項技術,各地(di)有不(bu)(bu)同的法(fa)律要求,還(huan)有其他(ta)各種復雜(za)情況(kuang),所(suo)以(yi)規(gui)范(fan)不(bu)(bu)可能一成不(bu)(bu)變。

它不可能在全球所有用戶那里都以(yi)完全相同的方式運(yun)行。正因(yin)為(wei)如(ru)此,我預計(ji)那份(fen)文(wen)檔會(hui)變(bian)得非(fei)常冗長(chang)、非(fei)常復雜,但這也正是我們需要制(zhi)定(ding)這份(fen)文(wen)檔的原(yuan)因(yin)。

九、像使用普通電腦一樣使用ChatGPT,人們質疑媒介內容意識增強

主持人:我再問最后一個問題,或許你能打消我的這層顧慮,這項技術的強大力量,會不會讓人們難以甚至無法分辨現實與虛構?正因為AI太擅長模仿人類的言行舉止,甚至能生成以假亂真的人像與聲音,到時可能就需要某種方式來驗證你確實是你所聲稱的身份。而從本質上來說,這必然會用到生物識別技術,進而剝奪全球每個人的隱私。

阿爾特曼:不過我認為,我們沒必要、也不應該強制要求使用AI時必須進行生物識別。我覺得大家應該能像使用普通電腦一樣,直接使用ChatGPT這類工具。

主持人:我非常認同這個觀點,但問題在于到了某個階段,當有人利用模仿他人的圖像或聲音進行詐騙時,用這種手段掏空別人的支票賬戶會變得易如反掌。所以面對這種情況,我們該怎么應對?

阿爾特曼:關(guan)于(yu)這(zhe)個問(wen)題,我(wo)有幾點想法。首先,我(wo)認為我(wo)們(men)正迅(xun)速走向這(zhe)樣一(yi)(yi)個世(shi)界,當你(ni)(ni)(ni)接到(dao)(dao)一(yi)(yi)通(tong)聽起來像(xiang)你(ni)(ni)(ni)孩子或(huo)父母的(de)電(dian)話,或(huo)是(shi)看(kan)到(dao)(dao)一(yi)(yi)張看(kan)似真實的(de)圖片時,你(ni)(ni)(ni)必須通(tong)過某種方式去核實,避免(mian)自己遭遇詐騙,這(zhe)已經不(bu)再是(shi)理論層面的(de)擔(dan)憂了,相關(guan)的(de)報道其實隨處可見。

但好在人們是聰明(ming)的,社(she)會也具備(bei)韌性。我相信大(da)家正在快(kuai)速(su)意識到,現(xian)在確實(shi)有不法分子在利用這(zhe)類AI技術行騙,必須通過多種途徑去(qu)核實(shi)信息的真實(shi)性。

我(wo)猜(cai),除了像家(jia)人之(zhi)間約定危(wei)機時刻專(zhuan)用暗號(hao)這(zhe)(zhe)類辦法之(zhi)外(wai),我(wo)們還會看到這(zhe)(zhe)樣的場景,比如(ru)國(guo)家(jia)領導(dao)人要發布緊急消息時,會對消息進行加密簽(qian)名,或是通(tong)過其(qi)他方式確保其(qi)真實性。

而且人們正在迅速意識到,這是不法分子利用新技術實施的新型手段,必須加以應對。在我看來,這本身就是解決方案的核心,也就是說,人(ren)們會逐(zhu)漸形成(cheng)一種默認態度,不(bu)輕易相信那些看似真實的(de)媒介內(nei)容(rong)

主持人:OpenAI正涉足電子商務,那該怎么保障安全?

阿爾特曼:我(wo)覺得可以像(xiang)家人之間那樣,約定(ding)(ding)一個定(ding)(ding)期更換的暗號(hao)。當你們互(hu)相聯系時,比如接到對(dui)方電話,就可以問一句暗號(hao)是(shi)(shi)什么(me),這和生物識別技術完全是(shi)(shi)兩回事。

主持人:所以你并不認為生物識別會很快成為全社會的強制要求?比如現在搭乘飛機,生物識別已經是流程的一部分了,但你不覺得它會很快推廣到整個社會,變成人人必須遵守的規定。

阿爾特曼:我真心希望不會變成這樣,確實存在一些隱私保護型生物識別技術,相比那種大量收集個人數字信息的方式,我更認可這類技術。但即便如此,我也不認為生物識別應該成為強制要求