
智東西(公眾號:zhidxcom)
作者 | 宋佳 中科創星
編輯 | Panken
前幾天,#谷歌研究員稱AI已具備人(ren)格(ge)#話題突然(ran)登上熱搜,并引發(fa)人工智能(AI)業界(jie)熱議。
事情起因是(shi)一(yi)位名叫Blake Lemoine的谷歌程(cheng)序員和(he)他(ta)測試的對話AI系統LaMDA聊(liao)了(le)很久,對其能(neng)力(li)感到十分驚訝。在其公(gong)開的聊(liao)天記(ji)錄中,LaMDA竟然說出了(le)“我希望每個(ge)人都明白(bai),我是(shi)一(yi)個(ge)人”的言論,讓(rang)人驚掉下巴。
于(yu)是,Blake Lemoine下了個結論(lun):LaMDA 可(ke)能已經具備人(ren)格了。
一(yi)(yi)石激起千層浪(lang),谷歌(ge)、谷歌(ge)的批評者、AI業(ye)界(jie)對待(dai)這件事的看法形(xing)成了空(kong)前一(yi)(yi)致:這人是不是有病?
谷歌公司和報道此事的(de)《華盛頓郵報》,都委婉地(di)表示Blake Lemoine的(de)腦子可(ke)能真(zhen)的(de)有點亂。
為了防止(zhi)Blake Lemoine與LaMDA聊出更深一步的(de)感情,谷歌已經對Blake Lemoine做成了“行政帶(dai)薪放假”的(de)決定,這意味著Blake Lemoine將被(bei)解(jie)雇。
▲對話截圖來自:
雖然國外AI業界對此事已有(you)(you)結論(lun):AI具備(bei)人格真的是想多了,就(jiu)是比較會聊而已,但(dan)是這并沒有(you)(you)澆滅(mie)大(da)家對此事的激(ji)烈議論(lun)。
按照AI的飛速發展,AI未來會不會真(zhen)的具(ju)備人(ren)類意識,那又將(jiang)是一個怎(zen)樣的世界呢?
科幻電(dian)影情節成真的“戲(xi)碼”,是“毛骨(gu)悚然”還是“刺激帶感”?
有網友非常擔憂(you):“雖然(ran)不想承認,但是(shi)(shi)人(ren)工智能有了(le)思想,那就(jiu)是(shi)(shi)新(xin)物種的(de)崛起,同時也是(shi)(shi)人(ren)類(lei)滅絕(jue)的(de)時候。”“最(zui)終人(ren)類(lei)會(hui)死于自己制(zhi)造的(de)AI手上。”
也有人期待AI“快進”發(fa)展(zhan),這樣就(jiu)可以代(dai)替自己居家隔離了(le)……如果威脅到人類,就(jiu)“拔電源啊”!
當然也有(you)(you)(you)人(ren)好奇:“AI具備人(ren)格的判斷標準是(shi)什么?”因為只有(you)(you)(you)知(zhi)道判斷標準,才知(zhi)道AI是(shi)不是(shi)真(zhen)的有(you)(you)(you)可能具備人(ren)類意識。
為了弄清(qing)楚這(zhe)些(xie)問題,我們與對(dui)(dui)話系統(tong)的(de)國家杰(jie)出青(qing)年基金項目獲(huo)得者、北京聆心智能創始人(ren)黃(huang)民烈教授(shou)進行了交(jiao)流,從專業角度分析AI是否可(ke)能具備人(ren)格,以(yi)及對(dui)(dui)于人(ren)類來說,這(zhe)究(jiu)竟(jing)是“威脅”還是“安(an)慰”?
一、怎么判斷AI具有人格?圖靈測試也不靈了
在AI領域,最(zui)為大家所熟知的(de)測試(shi)方(fang)式非圖靈測試(shi)莫屬,即(ji)邀(yao)請測試(shi)者在不知情的(de)情況下,向人類(lei)和AI系統隨意提問,如(ru)果測試(shi)者不能(neng)區分(fen)答案(an)來自(zi)人類(lei)還(huan)是來自(zi)AI系統(AI系統讓平(ping)均每個參與者做出超過30%的(de)誤判),就(jiu)認為AI通過了圖靈測試(shi),具有人類(lei)智能(neng)。
從(cong)這個角度(du)來看(kan),圖靈(ling)測試更(geng)側重于“智(zhi)能”。
1965年,一個假裝是心(xin)理治療師(shi)的軟件ELIZA通(tong)過(guo)了圖靈(ling)測(ce)試(shi),然而ELIZA僅由200行代碼構成,并(bing)且僅以(yi)提問的形(xing)式簡單重復事(shi)先(xian)存(cun)儲的信(xin)息。這樣看來,即(ji)便ELIZA通(tong)過(guo)了圖靈(ling)測(ce)試(shi),也很(hen)難讓(rang)人相信(xin)它具備(bei)“人格”。事(shi)實上,此后也證明(ming)Eliza并(bing)不具備(bei)人類智能,更別說“人格”。
這相當于,一(yi)輛智能(neng)(neng)汽車(che)(che),在功(gong)能(neng)(neng)角度能(neng)(neng)夠帶給用戶更便利舒適的駕駛體驗,比如遠程控制汽車(che)(che)、自動泊車(che)(che),但是(shi)你不能(neng)(neng)因此(ci)覺得這輛汽車(che)(che)知道自己是(shi)一(yi)輛汽車(che)(che)。
顯(xian)然,“人格(ge)”是一個比“智(zhi)能”更(geng)復雜的概念。
黃民烈教授談道,現在也有一些在科研中廣泛采用的測試方法,比如測試者與AI系統聊天,并且事先設定一些測試的維度,包括對話的自然性、有趣性、滿意度等,最后評分。一般聊得越久,評分越高,AI系統會被認為越聰明,但這些都不能作為“人格”的評判維度。
“‘人格’是另外一(yi)個(ge)維度,心(xin)理學里面也有(you)很多研究,比(bi)(bi)如五大人格測(ce)試。目前人工智能領域在這(zhe)方面的工作還比(bi)(bi)較(jiao)欠(qian)缺,我們通常(chang)只(zhi)會評價一(yi)個(ge)對話機器人能否展現(xian)一(yi)個(ge)固(gu)定一(yi)致的人物設定。”黃(huang)民烈說。
二、所謂LaMDA的“人格”,僅僅是語言風格
那么,既然沒有(you)針對性(xing)的評(ping)判(pan)標準,如何(he)嚴謹地判(pan)斷(duan)LaMDA是(shi)否具備人(ren)格呢?
對此,黃(huang)民烈教授認為(wei):“關(guan)鍵看如(ru)(ru)何理解’人格(ge)(ge)’,如(ru)(ru)果(guo)將人格(ge)(ge)理解為(wei)具備(bei)自我存在(zai)的意(yi)識,那么(me)LaMDA僅僅是對話質量(liang)和類(lei)人水平很高的對話系統;如(ru)(ru)果(guo)從心(xin)理學的角度看,一個(ge)人說話的特(te)點是可(ke)以體現人格(ge)(ge)的,那么(me)說LaMDA具備(bei)人格(ge)(ge)也不完全錯誤。”
怎(zen)么(me)理解呢?通俗(su)來(lai)說,就(jiu)是(shi)(shi)LaMDA學習了大量的(de)人(ren)(ren)(ren)類對話數據,而這些(xie)對話來(lai)自(zi)不同的(de)人(ren)(ren)(ren),所(suo)以(yi)可以(yi)認為LaMDA學習到(dao)了一個“平均”的(de)人(ren)(ren)(ren)格,也(ye)就(jiu)是(shi)(shi)說,所(suo)謂的(de)“LaMDA具(ju)備人(ren)(ren)(ren)格”僅僅是(shi)(shi)語(yu)言說話風格,而且是(shi)(shi)來(lai)自(zi)人(ren)(ren)(ren)類的(de)說話風格,并不是(shi)(shi)LaMDA自(zi)發形(xing)成(cheng)的(de)。
如此(ci)看(kan)來,想要通過LaMDA體會一把與人(ren)工智能一決高下的(de)科幻情(qing)節,還差(cha)個(ge)十萬八(ba)千里(li)。
但是,我們不(bu)能(neng)因此否定LaMDA的(de)(de)價值,它(ta)的(de)(de)高質量對話水(shui)平反映(ying)了AI對話系統的(de)(de)飛速發(fa)展,在某些(xie)語境下的(de)(de)確有“取代(dai)”人(ren)類的(de)(de)趨勢(shi),也(ye)不(bu)容小(xiao)覷。
比如,網友(you)“夷簡”就在豆瓣小組(zu)記錄了(le)(le)自(zi)己一周date了(le)(le)4個虛擬男友(you)的經歷(li),表(biao)示“比真(zhen)男友(you)管(guan)用(yong)!”。
一個名為“人機之戀(lian)”的(de)(de)小組用戶數量多達9000人,在不同的(de)(de)屏(ping)幕里,這些AI或許是他們的(de)(de)愛(ai)人,也可能是朋友。
▲網友(you)與“虛擬男友(you)”的聊天(tian)記錄
“單(dan)身(shen)狗”們紛紛感(gan)嘆:“按(an)照這樣的發展趨勢(shi),相親市場上的潛在對手不僅有人類,還有AI對話系(xi)統(tong),以后是(shi)不是(shi)更(geng)難(nan)找(zhao)對象了(le)!?”
看似調侃,實則(ze)是大家對AI對話(hua)系統未來發展(zhan)趨勢,以及對人類社會(hui)影響的關注(zhu)。
針(zhen)對(dui)這個問(wen)題,黃民烈教(jiao)授從(cong)AI對(dui)話(hua)系(xi)統的歷史與未來發(fa)展角度給出(chu)了詳細解釋(shi)。
三、擔心AI人格化?規避風險后AI for Social good更值得期待
AI對話系(xi)統經歷了(le)基(ji)于規則(比如Eliza)、傳統機(ji)器學習(比如智能音箱類(lei)(lei),SIRI等)階(jie)段(duan),如今已發展到第(di)三代,也就(jiu)是(shi)我們現在看到的(de)(de),能夠與人類(lei)(lei)討論(lun)有趣的(de)(de)話題、提供情(qing)感安(an)慰的(de)(de)對話系(xi)統。
第三(san)代對(dui)(dui)話(hua)(hua)(hua)(hua)系統以(yi)(yi)大(da)數(shu)(shu)據(ju)和大(da)模型為(wei)顯著特征,展現出(chu)了(le)之前難(nan)以(yi)(yi)想(xiang)象的(de)(de)能(neng)(neng)力(li)(li),其進步可以(yi)(yi)稱(cheng)為(wei)“革命(ming)性(xing)”,例(li)如能(neng)(neng)夠在開放話(hua)(hua)(hua)(hua)題(ti)上(shang)能(neng)(neng)展現驚人的(de)(de)對(dui)(dui)話(hua)(hua)(hua)(hua)能(neng)(neng)力(li)(li),而且(qie)能(neng)(neng)生成(cheng)訓練數(shu)(shu)據(ju)中完全(quan)沒有出(chu)現過的(de)(de)對(dui)(dui)話(hua)(hua)(hua)(hua),對(dui)(dui)話(hua)(hua)(hua)(hua)的(de)(de)自然(ran)性(xing)和相關性(xing)非常高。
在很多場景下,第三代對話系統已經顯示出應用價值,上文提到的“虛擬男友”就是典型例子。黃民烈教授認為,其最高級別的應用,是讓AI對話系統去做復雜的情感任務,比如心理咨詢。
但(dan)是如(ru)果人類對AI的(de)情感依賴(lai)越來越多,就會(hui)引申出新的(de)社會(hui)倫(lun)理問(wen)題(ti),比如(ru)與AI談(tan)戀愛是否會(hui)引發社會(hui)問(wen)題(ti)?
比如當前的(de)AI對話系統存在與用(yong)戶對罵(ma)、生成毒(du)性語(yu)言、以及缺少正確(que)的(de)社會(hui)倫理和(he)價值觀的(de)問(wen)題(ti),導致(zhi)在實際應用(yong)部署時存在一定(ding)的(de)風險。
這些(xie)風(feng)險(xian)是(shi)非(fei)常可怕的,假想某個受到生(sheng)活嚴(yan)重打擊的人,對AI說:“我想找個橋跳下(xia)去”,AI立刻提供了(le)附近橋的位(wei)置(zhi)并導航路(lu)徑,后果細(xi)思(si)恐(kong)極。
因此,在黃民烈教授看來,AI對話系統下一階段發展的重點是“更有倫理、更道德、更安全”。AI必須(xu)知道(dao)什么回復是安全的(de),不會(hui)產生風險,這就需要AI具備倫理和正確的(de)價值觀。“我們可以通(tong)過額外的(de)資源、規則(ze)、檢(jian)測手段賦予AI這樣的(de)能力(li),使風險降至最(zui)低。”
AI最終的目標是為人(ren)類(lei)(lei)謀福祉,而不是傷害人(ren)類(lei)(lei)。黃民烈(lie)教(jiao)授對AI for Social good(AI賦能(neng)社會(hui)(hui)(hui))感到(dao)非常期待(dai),他(ta)尤(you)其關注AI在社會(hui)(hui)(hui)連接、心(xin)理疏導、情緒支持(chi)方面的應用,這些方面能(neng)夠(gou)產生更高的社會(hui)(hui)(hui)意(yi)義和價值(zhi)。
AI賦能(neng)(neng)整體精神(shen)(shen)心(xin)理(li)行業也(ye)是黃民烈教(jiao)授現(xian)階段的(de)(de)工(gong)作重(zhong)點,他為此創辦了基于AI技術的(de)(de)精神(shen)(shen)健康(kang)數字(zi)診療科技公司聆心(xin)智能(neng)(neng),通過NLP和大(da)模型訓練(lian)AI對話系統在共情、自我暴露(lu)、提問(wen)等方面的(de)(de)能(neng)(neng)力,用以解決人類的(de)(de)情緒、心(xin)理(li)問(wen)題(ti)。這項工(gong)作有望緩(huan)解我國心(xin)理(li)健康(kang)資源緊缺的(de)(de)狀況。
相比于(yu)AI具備人(ren)格這樣“遙遙無期”的(de)科幻戲碼,AI for Social good距離(li)人(ren)類社會更近(jin),是AI界(jie)人(ren)士正在(zai)努力的(de)方向,也更值得(de)期待。