
智東西(公眾號:zhidxcom)
作者 |? 子佩
編輯 |? Panken
“有(you)一(yi)些事煩擾著你(ni),像是阻止人類歷史翻過新的篇章,你(ni)知道那一(yi)頁后面(mian)空空蕩蕩,正如這一(yi)夜,地球(qiu)上最后的夜晚。你(ni)決定完成那一(yi)件事,給整個文明畫上一(yi)個完美的句(ju)號(hao)。”
看到這段(duan)話的時(shi)候,你會(hui)想(xiang)到什么?
是曲折又(you)飄渺的(de)意(yi)境,還是不知(zhi)所云(yun)的(de)指代?
這(zhe)段文字出自科幻作家陳楸帆的(de)(de)短篇(pian)小說《出神狀態》,在2019年被專門為書(shu)(shu)籍打(da)分(fen)的(de)(de)“AI評論(lun)家”谷(gu)臻小簡評為年度小說,此(ci)前,谷(gu)臻小簡最喜(xi)歡(huan)的(de)(de)書(shu)(shu)是莫言的(de)(de)《等待摩西(xi)》。
▲《出神狀態》原載于《小(xiao)說(shuo)界(jie)》2018年第(di)4期(qi),該期(qi)主題為“地(di)球上最后的夜晚(wan)”
令人驚嘆的是《出(chu)神狀態》文章本身也是一部(bu)由(you)AI參與創作的作品。
隔著評(ping)(ping)選與被評(ping)(ping)選的界(jie)限(xian),“AI評(ping)(ping)論(lun)家”和(he)“AI小(xiao)說家”遙遙相(xiang)望,在771篇短篇小(xiao)說中認出了彼(bi)此。
這樣的(de)“相認”是否代表著AI已經發(fa)展出自己的(de)“文學審美(mei)”,窺得一(yi)絲人(ren)類(lei)創(chuang)作(zuo)的(de)“天(tian)機”?
要回答這個問題(ti),我(wo)們要從(cong)寫(xie)作(zuo)型(xing)AI的發展歷史及其(qi)核心技術說起(qi)。
一、回顧三十年寫作之路:模仿容易創作不易
簡(jian)單的AI寫作從(cong)三十年前就開始了,最早的一(yi)個AI寫作系統誕生于(yu)1990年的加拿大,通過(guo)從(cong)數據(ju)庫(ku)中產生文(wen)字摘要(yao)的“資料轉文(wen)本”系統,生成英法雙語(yu)的氣象報(bao)(bao)告(gao),其后也應用在經濟、商業報(bao)(bao)告(gao)和醫療(liao)報(bao)(bao)告(gao)上(shang)。
三十年過去(qu)了,科技世界早已“換了人(ren)間(jian)”,AI寫作(zuo)(zuo)也(ye)從機械化的“提取”和(he)“填(tian)空”,升級到智能化的創(chuang)作(zuo)(zuo),并開(kai)始(shi)涉(she)及(ji)更加復雜的文本創(chuang)作(zuo)(zuo)。
2016年,日(ri)本(ben)兩支(zhi)科(ke)研團隊就曾將(jiang)AI引入小說創作中,并將(jiang)其作品參加(jia)日(ri)本(ben)“星新一獎”比(bi)賽,騙過了評(ping)委(wei)的眼睛。
▲日(ri)本公立函館未來(lai)大學(xue)松原仁教授在報(bao)告(gao)會上演講
其中一支團隊(dui)的(de)(de)負(fu)責(ze)人松(song)原仁教授(shou)表(biao)示,自己的(de)(de)團隊(dui)花(hua)費了四年時間來分析日本知(zhi)名(ming)科幻(huan)小(xiao)說家星新一的(de)(de)上千本小(xiao)說,讓AI學習文章中使用(yong)的(de)(de)單詞種類、句子長(chang)短、斷句等(deng)(deng)寫作特征。當需要寫小(xiao)說時,AI會基于人類設定(ding)好的(de)(de)出(chu)場人物、內(nei)容(rong)大綱(gang)等(deng)(deng)自動補(bu)充其余的(de)(de)文章內(nei)容(rong)。
但他也提到,AI只在小說創作中(zhong)做(zuo)出了20%的貢獻,并(bing)沒有學(xue)會怎么寫小說。
開篇中提到的《出神狀態(tai)》同(tong)樣是(shi)基于相似的思(si)路。
研究人(ren)員直接調用Github上現成(cheng)的(de)代碼(ma),通過調整參數來(lai)讓模型生(sheng)成(cheng)的(de)文字盡(jin)可能接近人(ren)類寫出的(de)文章。且基于對原(yuan)作者(zhe)上百萬(wan)字文章的(de)學(xue)習,AI程序(xu)“陳(chen)楸帆2.0”可以通過輸入的(de)關鍵(jian)詞和(he)主語,自(zi)動生(sheng)成(cheng)幾十到(dao)一百字之間的(de)段落。
盡(jin)管模(mo)型學(xue)會了原作(zuo)者的寫(xie)(xie)作(zuo)偏(pian)(pian)好(hao),如(ru)更(geng)愛用什(shen)么(me)句(ju)式、更(geng)偏(pian)(pian)好(hao)于怎樣(yang)的詞語描寫(xie)(xie),但這(zhe)也僅僅是(shi)學(xue)會了語句(ju)統計(ji)的規律,而寫(xie)(xie)作(zuo)過程更(geng)像是(shi)從常用語料庫中(zhong)隨機找到一些詞,按照寫(xie)(xie)作(zuo)偏(pian)(pian)好(hao)拼接在一起形成段落,沒有明(ming)確的寫(xie)(xie)作(zuo)意圖或(huo)者情(qing)感(gan),也難以稱得上“文學(xue)”之名。
2018年末,世界(jie)上(shang)第一篇完(wan)全由(you)AI創作(zuo),無人(ren)類參(can)與的(de)小說誕(dan)生了。
模仿美國(guo)文豪(hao)Jack Keroua《在(zai)路上》的創作過程,美國(guo)小(xiao)說家Ross Goodwin帶著一個(ge)麥克風、一個(ge)GPS、一個(ge)攝(she)像頭和一臺筆(bi)記本電(dian)腦上了(le)路,并推出了(le)AI小(xiao)說《The Road》。
▲Jack Kerouac在(zai)1948-1950年橫穿美國,并創作了《在(zai)路上》
在旅途開始(shi)之前,Goodwin向模型輸入了6000萬字的文學作品(pin)訓(xun)練長短期(qi)記憶網絡(LSTM),其中(zhong)三分(fen)(fen)之一(yi)是(shi)詩歌,三分(fen)(fen)之一(yi)是(shi)科幻小說(shuo),余下的三分(fen)(fen)之一(yi)是(shi)頹廢主義(yi)文學作品(pin)。
在(zai)旅程中,攝像機(ji)畫面以及GPS位移等變化會作為種(zhong)子單詞(seed word)貫連(lian)起小(xiao)說情(qing)節。Goodwin希望通過這種(zhong)方式規避(bi)AI小(xiao)說敘事混(hun)亂的(de)(de)問題,增(zeng)加故(gu)事的(de)(de)連(lian)貫性。
可惜的(de)是,雖(sui)然神經網絡(luo)可以基于種子(zi)單(dan)詞關(guan)聯到相(xiang)關(guan)的(de)詞語,組(zu)成(cheng)句子(zi),但他們(men)并不知道自己在寫什么,也不明(ming)白這些話實(shi)際(ji)代(dai)表了什么含(han)義,最終(zhong)又都會(hui)駛(shi)向“超(chao)現實(shi)”寫作的(de)范疇,成(cheng)為一(yi)堆單(dan)詞的(de)拼湊組(zu)合。
如(ru)何讓(rang)AI知其然(ran),知其所以然(ran)?這就是自然(ran)語(yu)言處理(NLP,Natural Language Processing)的工作了(le)。
二、AI寫作的“引擎”:詳解NLG全流程
作(zuo)為AI皇冠上(shang)的(de)明珠,NLP涵(han)蓋(gai)的(de)范圍也很廣,包(bao)括(kuo)文本分類、機器(qi)翻譯、機器(qi)理解等,其中(zhong)最與創(chuang)作(zuo)息(xi)息(xi)相關的(de)就是自然語(yu)言生成(NLG,Natural Language Generation)。
自然語(yu)言生(sheng)成的概念也(ye)非常易懂,其(qi)實就是機器理解(jie)的逆過程。
機(ji)器(qi)(qi)理解(jie)通過(guo)將人(ren)(ren)類(lei)語言(yan)轉化為機(ji)器(qi)(qi)語言(yan)(二進制或(huo)其(qi)他編(bian)碼方(fang)式),讓機(ji)器(qi)(qi)明白人(ren)(ren)類(lei)的意(yi)圖(tu),而自然語言(yan)生成則是通過(guo)將機(ji)器(qi)(qi)語言(yan)轉化為人(ren)(ren)類(lei)語言(yan),讓人(ren)(ren)類(lei)明白機(ji)器(qi)(qi)的意(yi)圖(tu)。
大(da)部分NLG模型(xing)都遵循(xun)一個“從整體到細節”的過程,具體可以(yi)被拆分為以(yi)下(xia)六個步驟:
1、內容確定(Content determination):確(que)定文(wen)(wen)本包含哪些信(xin)息,比如今天我(wo)們需(xu)要寫一(yi)篇AI寫作有(you)關(guan)的文(wen)(wen)章(zhang),所(suo)以需(xu)要收集相關(guan)的資料。
2、文本結構(Text structuring):確定文(wen)本的邏輯(ji)結(jie)構,例如先說AI寫作的成(cheng)就,再(zai)展開描述(shu)通過哪些技術實現AI寫作。
3、句子聚合(Sentence aggregation):合(he)并意義相(xiang)似(si)的句子(zi),讓閱(yue)讀過(guo)程更(geng)輕松(song)(song)。如將“AI寫作在1990年就出現了”和(he)“最(zui)早,AI寫作應用于(yu)氣(qi)象、商業、醫療報告等(deng)(deng)領(ling)域”合(he)并為(wei)“1990年,最(zui)早的AI寫作應用于(yu)氣(qi)象、商業、醫療報告等(deng)(deng)領(ling)域。”,讓閱(yue)讀過(guo)程更(geng)輕松(song)(song)易(yi)懂。
4、詞匯化(Lexicalisation):找到表述(shu)準確的詞語。
5、引用表達式生成(Referring expression generation):一些(xie)詞(ci)語能指代更(geng)大的范(fan)圍或引申義,例(li)如(ru)當提到NLG,默認其是NLP下的一個分支(zhi),下文(wen)可以(yi)基于這一信息展開(kai)其他(ta)內容。
6、語言實現(Linguistic realisation):將所(suo)有單詞(ci)和(he)短語組(zu)合成表意清晰的句子(zi)。
如(ru)下圖(tu)就展示了NLG模型如(ru)何從一張新生(sheng)兒心率(lv)圖(tu)像生(sheng)成文本。
首先在內容確定階段(duan)確定了(le)文本需要描述新生(sheng)兒的(de)心(xin)率變化,在文本結構部(bu)分,找出了(le)新生(sheng)兒三(san)次心(xin)率過(guo)緩的(de)時間,按(an)時間順序排列。第(di)三(san)階段(duan)包(bao)括了(le)句(ju)子(zi)聚合、詞(ci)(ci)匯化和引用表達生(sheng)成,通過(guo)詞(ci)(ci)向量的(de)排列組合找到適(shi)合的(de)詞(ci)(ci)語,最后(hou)在實現階段(duan)組成通順的(de)句(ju)子(zi)。
最早的NLG模型可以追溯到1993年的機器(qi)翻譯模型,Peter F. Brown和(he)Della Pietra將統計方法(fa)應用(yong)于模型中,實現(xian)英法(fa)語互譯。
其后更(geng)多的新(xin)方法、新(xin)突(tu)破也投入了NLG模型(xing)中:啟發式模型(xing)、雙(shuang)語并(bing)行語料庫、對(dui)抗性(xing)訓練等,讓NLG模型(xing)在近三十年的歷史中,乘風破浪,不(bu)斷“進擊”。
三、AI寫作“進階”:多創新突破理解障礙
NLG是(shi)怎么運(yun)行的,我們已經很清楚(chu)了,但至于(yu)為什么目(mu)前AI還(huan)是(shi)無法成為“小說家”,說到底,還(huan)是(shi)理解不夠透。
我們以早期NLG算法模型馬爾可夫鏈(lian)舉例。
▲馬爾可夫鏈示意圖
它會使用當前單詞來預測句子中的下一個單詞。?
比(bi)如,當模型僅(jin)使用以(yi)下句(ju)子進(jin)行(xing)訓練:“AI能寫出詩歌(ge)”和(he)“AI寫出小說(shuo)”,那在文本生成階段,“AI”后(hou)面一定會接(jie)著“寫”,而(er)“寫”則有一半的可能接(jie)上(shang)“詩歌(ge)”或者“小說(shuo)”。
馬爾可(ke)(ke)夫鏈基于訓練(lian)集(ji)(ji)中詞(ci)頻的(de)(de)統計來判斷詞(ci)語之間相連的(de)(de)可(ke)(ke)能性,這(zhe)也(ye)反映了(le)大(da)部分(fen)算法模(mo)型暗(an)含的(de)(de)問題(ti),由于訓練(lian)集(ji)(ji)的(de)(de)不同,預測(ce)結果很(hen)可(ke)(ke)能不同。模(mo)型大(da)多數時(shi)候并不是(shi)(shi)“主動”地創作文本,而(er)只是(shi)(shi)“被動”地根據統計結果猜測(ce)下一個可(ke)(ke)能出現的(de)(de)詞(ci)是(shi)(shi)什么。
這樣一來(lai),NLG模(mo)型確實可以創作出看(kan)起來(lai)非(fei)常像小說(shuo)的小說(shuo),但是仔細一讀,卻發現它“虛有其表(biao)”。
研究人員也采用(yong)了(le)許多方(fang)法(fa)去(qu)突破這一(yi)瓶頸(jing),其中RNN(遞歸神經網(wang)絡)、LSTM神經網(wang)絡和Transformer(自注意力機制)是較為常用(yong)的方(fang)法(fa)。
RNN通(tong)過(guo)構建輸(shu)(shu)入輸(shu)(shu)出的非線性(xing)(xing)關系(xi),實現(xian)更靈活的雙向預測(ce);LSTM則通(tong)過(guo)四層神經網絡(RNN僅有一層)允許(xu)網絡選擇性(xing)(xing)地(di)僅跟蹤相關信息,且觀(guan)測(ce)到離預測(ce)距離更遠的上下文。
▲分(fen)別(bie)為RNN和(he)LSTM神經(jing)網絡的架構圖
而Transformer則是目前許多大型語言模(mo)型的(de)基石。
簡單來說,Transformer可以通(tong)過(guo)編碼器處理任意長(chang)度的輸入文本,在執行較少(shao)步驟的同時,忽略詞語位(wei)置,直接(jie)模擬句子(zi)中所有詞語之間(jian)的關系。
2020年,美(mei)國(guo)查普曼大學的學生利用基于Transformer的GPT-3模型, 創(chuang)作了影片劇本《律師》,走紅社(she)交網(wang)絡(luo)。
影片開(kai)始(shi)是一(yi)個女人坐在(zai)沙發(fa)上看書,一(yi)陣敲門聲響起。
她起身開門,發現一個汗(han)流浹(jia)背、狂(kuang)躁不安的年(nian)輕人站(zhan)在她家(jia)門口,他(ta)說(shuo):“我(wo)是耶和華見(jian)證(zheng)人(Jehovah’s Witnesses)。”
但這個女人(ren)看起來(lai)不為所(suo)動,說:“對不起,我不和律師講(jiang)話。”
該(gai)男子焦躁了起來,試(shi)圖用一個故事引起她的注意。
▲影片《律師》截圖
影片制作(zuo)Eli Weiss表示:“我們認(ren)為AI寫(xie)(xie)作(zuo)非常有趣,它將(jiang)劇情帶向了意想(xiang)不到的(de)(de)方向,而且(qie)從故(gu)事(shi)寫(xie)(xie)作(zuo)的(de)(de)角度來看,AI寫(xie)(xie)的(de)(de)每一個轉折(zhe)都正中(zhong)觀眾心坎。”
結語:創作天機,不可泄露
盡管AI寫(xie)作(zuo)的應用(yong)日趨廣泛,但無論是(shi)劇本還是(shi)小說,呈現在觀眾面前的作(zuo)品(pin)都是(shi)經過人工修改(gai)和調整。
人們所驚嘆(tan)的創造力,也不來源AI本(ben)身的思考(kao),而是根(gen)據自身訓練(lian)數(shu)據預測出“下一個最有可(ke)能(neng)出現的詞”。
所以如果我們看一(yi)看AI生(sheng)成的(de)原文(wen)(wen)就(jiu)會(hui)發現,它(ta)們句法完整(zheng)、辭藻華麗,卻往(wang)往(wang)不知所云,缺(que)乏文(wen)(wen)學創作中最重要的(de)思想性(xing)和(he)情感共鳴(ming)。
至于AI是否已經窺(kui)得創作“天機”,或許(xu)目前它最好的(de)用法,還是作為人類創作者的(de)參考工具。