
智東西(公眾號:zhidxcom)
編譯 |? 徐豫
編輯 |? 漠影
智東西9月3日(ri)消息,據《華爾街日(ri)報》9月2日(ri)報道,近期一(yi)些帶有戲謔意味、政(zheng)治誤導性(xing)的AI圖像在社交媒體平臺X上(shang)流傳,例如(ru)“特朗普與哈里(li)斯纏綿”、“奧巴馬吸食可卡因(yin)”、“米奇拿(na)槍”等(deng),畫面(mian)內容(rong)令(ling)用戶感到(dao)迷惑(huo)和不適(shi)。
這些AI圖像由Grok-2、Gemini等AI大(da)模型生成。Grok-2由馬斯(si)克創辦的美國AI大(da)模型獨(du)角獸xAI研(yan)發(fa),Gemini來自美國科技巨(ju)頭谷歌。
近期,谷歌一直在完善其AI圖像生成內(nei)容(rong)的審核機制,以盡可(ke)能避(bi)免AI輸出帶有偏(pian)見(jian)、歧義、錯誤、種(zhong)族(zu)主義、違背(bei)歷史(shi)事實等方(fang)面的內(nei)容(rong)。
針(zhen)對類似的問題,此前(qian)美國AI大模型獨角(jiao)獸(shou)OpenAI,已禁止利用AI生(sheng)成指向性明確的人物形象,來(lai)加(jia)強AI圖像(xiang)生(sheng)成內容審核力(li)度(du)。
一、xAI新一代大模型Grok-2,默許政治人物被惡搞
打開(kai)社交(jiao)媒體平(ping)臺X(原Twitter),你可能會看到這些“雷(lei)人”畫面:米老鼠喝啤酒(jiu),海綿寶寶穿納粹制(zhi)服(fu),美國前總統(tong)唐納德·特朗普(Donald Trump)與(yu)美國副總統(tong)卡瑪拉·哈里(li)斯(si)(Kamala Harris)接吻。
這些(xie)令(ling)人費(fei)解、不適的(de)(de)圖像,都是用xAI和谷歌的(de)(de)生成式AI新模(mo)型或軟(ruan)件(jian)生成的(de)(de)。
▲利用AI技術生(sheng)成的圖(tu)像,特朗普“公主抱”哈(ha)里斯,人物肖像清晰(圖(tu)源(yuan):《華(hua)爾街日報》)
8月14日,xAI推出下一代大語言模(mo)型(xing)Grok-2。模(mo)型(xing)發(fa)布后的幾天內,X平(ping)臺涌入了大量據說是用Grok-2生成的圖(tu)像。在這些(xie)畫(hua)面中,“死對頭”特朗普與(yu)哈里斯(si)動作親密,童(tong)話世界里的米奇卻拿槍、抽煙(yan)。這些(xie)利(li)用生成式AI技術制作的圖(tu)像,不僅(jin)損害(hai)了政治人物形象,還令有版(ban)權的角(jiao)色(se)做出一些(xie)帶有冒(mao)犯意味(wei)的動作。“迪士尼(ni)如果(guo)看(kan)到,可能也(ye)笑不出來。”
Grok-2大(da)語言模型(xing)由德國(guo)AI圖像和視(shi)頻生(sheng)成創企(qi)Black Forest Labs提供支持,目前僅向X平臺(tai)的付費訂閱(yue)用戶開放(fang)。
根據X平臺的(de)政策,用(yong)戶(hu)禁(jin)止分享可能混(hun)淆或誤導(dao)事實、人(ren)為刻意偽造的(de),以及最終導(dao)致人(ren)身或財產傷害的(de)內容(rong)。Grok-2發布當(dang)天的(de)晚些時候,雖然(ran)部(bu)分違規的(de)AI圖像已無法在X平臺上檢索(suo)出來,但用(yong)戶(hu)仍可以使用(yong)Grok-2生成充(chong)斥“惡趣味”的(de)新作品。
然而,X平(ping)臺的實控人馬斯克,似乎并不介意這種惡搞(gao)政(zheng)治的行為。今年7月,他轉發了一(yi)段深(shen)度偽(wei)造哈里斯的虛(xu)假視(shi)頻,視(shi)頻中(zhong)哈里斯自(zi)稱為“最終的多元化雇(gu)員”。
有內(nei)容審(shen)核方面的專家稱,類似的生(sheng)成式AI工具可能(neng)會在美(mei)國大(da)選(xuan)周期(qi)中,生(sheng)成一(yi)些(xie)虛假信息,甚至擴(kuo)散到社(she)會面。
8月(yue)19日,2024美(mei)國(guo)民主黨全國(guo)代(dai)表大會開幕的(de)前(qian)一天,特朗普發布了一張疑(yi)似用AI生成的(de)圖像(xiang)。當時(shi),由于美(mei)國(guo)現任(ren)總統拜登已(yi)放棄連任(ren),經過黨內投票后,這幅AI圖像(xiang)的(de)主角哈里(li)斯(si)已(yi)提前(qian)鎖定民主黨總統候選人提名(ming)。
而(er)圖(tu)像中描繪了“哈里(li)斯在芝(zhi)加哥(ge)發表演(yan)講”的現場情況,其背景中有一面鐮刀和錘(chui)子圖(tu)案的紅旗,似(si)乎在暗示哈里(li)斯是共產主義者,從而(er)引發政治爭議。
二、谷歌Gemini大模型屢屢翻車,涉敏感元素就黑白不分
谷歌的Gemini聊天機器人,由其同名大(da)語言模型Gemini支持(chi)。
在今年2月推(tui)出新(xin)版Gemini聊天機器人之前(qian),谷歌曾調(diao)試(shi)Gemini模型,使其(qi)遇到涉及生成人物的指(zhi)令時,能反饋更(geng)多樣化、屬性更(geng)模糊的人物形象。
例如(ru),之前(qian)在生成(cheng)醫(yi)生圖(tu)像(xiang)時,AI通常更傾向于給出白人男性的形象(xiang)。谷歌希望能(neng)通過(guo)“多(duo)樣化”的方式(shi),來減少(shao)AI圖(tu)像(xiang)生成(cheng)模(mo)型的“偏見”。
但不到(dao)(dao)一個(ge)月(yue),Gemini模(mo)型就捅了大簍子。該模(mo)型在(zai)(zai)生成“具有種(zhong)族(zu)多(duo)樣性”的(de)(de)圖像時,出(chu)現(xian)錯誤匹配宗教、種(zhong)族(zu)、性別等情況,以至于得到(dao)(dao)多(duo)張不符合歷史(shi)事實的(de)(de)人物(wu)圖像。受(shou)到(dao)(dao)大量(liang)網友的(de)(de)抨擊后,谷歌決定(ding)暫停Gemini模(mo)型的(de)(de)圖像生成功能(neng),為AI圖像生成的(de)(de)潛在(zai)(zai)風(feng)險(xian)踩下“急剎車(che)”。
谷(gu)歌(ge)副總(zong)裁兼Gemini聊天機器人負責人Sissie Hsiao,在(zai)近(jin)期的(de)(de)一次采訪中,稱(cheng)確保AI模型聽從用(yong)(yong)戶指令,是(shi)谷(gu)歌(ge)堅持的(de)(de)原則。“這是(shi)用(yong)(yong)戶的(de)(de)Gemini,我們是(shi)為用(yong)(yong)戶服務的(de)(de)。”
盡(jin)管如此,使(shi)用Gemini聊天機器人生成的(de)(de)(de)部分圖(tu)(tu)像,仍(reng)存(cun)在違背歷史事實(shi)的(de)(de)(de)情況。不少X平(ping)臺的(de)(de)(de)用戶截圖(tu)(tu)質疑谷(gu)歌模型的(de)(de)(de)內容(rong)審核能力。
對于Gemini模型輸出(chu)帶(dai)有冒(mao)犯意味的、種族偏見的內(nei)容(rong),谷歌CEO Sundar Pichai回應稱,“這(zhe)是不可接受(shou)的”,該公司將“全(quan)面解決這(zhe)一問題”。
不過,谷歌最(zui)近因利用(yong)AI技術生(sheng)成的(de)畫(hua)面內(nei)容不嚴謹(jin),再(zai)次激(ji)怒(nu)了用(yong)戶。
8月中旬,谷歌最新一代(dai)智能手機Pixel 9系(xi)列上市(shi)。Pixel 9系(xi)列引入了一個(ge)名為“Reimagine”的AI照片編輯工具,因此用戶可以通(tong)過輸入文本提示,來(lai)調用AI修改照片中的內(nei)容。
但有用(yong)戶(hu)發現(xian),Reimagine允許用(yong)戶(hu)添加(jia)一(yi)(yi)些違規元素,比如為海綿寶寶“佩(pei)戴”納粹標志。這(zhe)一(yi)(yi)內容安(an)全漏洞引(yin)起用(yong)戶(hu)的(de)反(fan)感(gan)。
一位谷(gu)歌發言人稱,該(gai)公司正(zheng)在(zai)“不斷(duan)加強(qiang)和完善AI模型現(xian)有的安全(quan)防護措施”。
谷歌今年8月底(di)曾透露,其AI聊天機器人Gemini將重(zhong)新上線人物圖(tu)像(xiang)(xiang)生成功能,該(gai)功能初期僅(jin)面(mian)向(xiang)付費訂閱的英(ying)語用戶開放。同時(shi),谷歌已在AI圖(tu)像(xiang)(xiang)生成審核(he)方面(mian)取得“重(zhong)大進展”,不過Gemini生成的圖(tu)像(xiang)(xiang)也“不可能每(mei)一張都準確無誤(wu)”。
三、AI生圖的倫理、法律邊界,待建立行業標桿
當前,AI圖像生成(cheng)軟(ruan)件(jian)不斷試探社交媒體(ti)平(ping)臺政(zheng)策的(de)(de)底(di)線。這種(zhong)現象引發了爭論(lun)和反思,比如(ru)科技公司是(shi)否(fou)應該控制,又如(ru)何審核(he)前沿的(de)(de)AI圖像生成(cheng)軟(ruan)件(jian)所輸出的(de)(de)內容呢(ni)?
在把生(sheng)成(cheng)(cheng)式AI技術開放(fang)給網(wang)友用于自由創作前,AI圖像生(sheng)成(cheng)(cheng)軟件(jian)配備有效的安(an)全防(fang)護措施,以確保AI生(sheng)成(cheng)(cheng)的作品不違規、不觸(chu)犯道德準則。這是科(ke)技公司在AI內容審核上(shang)面(mian)臨的壓力。
除了倫理困(kun)境(jing)之(zhi)外,AI模型和軟(ruan)件背后的(de)開(kai)發者,還需要背負(fu)許多潛在(zai)的(de)法律責(ze)任。這是由于(yu)他(ta)們在(zai)訓練(lian)AI模型和軟(ruan)件時,所(suo)用(yong)的(de)訓練(lian)數據涉及侵(qin)犯知識產權等權利。
因涉(she)嫌侵權,2023年藝術家們對(dui)AI圖(tu)像創(chuang)企Stability AI和Midjourney發起集體訴(su)訟(song)。這(zhe)次集體訴(su)訟(song)的對(dui)象(xiang)還包括DeviantArt、Runway等一系列擁有AI圖(tu)像生成模型(xing)的公司。
此(ci)外,除了來自(zi)藝術家們的(de)(de)(de)集體(ti)訴(su)訟(song)外,Stability AI還(huan)面臨美國視覺媒體(ti)公司(si)Getty Images的(de)(de)(de)訴(su)訟(song)。后者指控Stability AI侵犯了其訓練模型的(de)(de)(de)權利。對此(ci),Getty Images的(de)(de)(de)一位發言人稱,該公司(si)現已推(tui)出了自(zi)己的(de)(de)(de)AI圖像生成(cheng)模型。
OpenAI于(yu)2022年推(tui)出了AI圖像生(sheng)成模(mo)型(xing)DALL-E。去年收到藝術家們(men)的集體(ti)訴訟后,OpenAI為此在DALL-E模(mo)型(xing)界(jie)面(mian)新增了一個選(xuan)項(xiang),允許創作者(zhe)勾選(xuan)個人上傳圖像不用于(yu)DALL-E下(xia)一代模(mo)型(xing)的訓(xun)練(lian)。
《華爾街日報》的母公司News Corp已與OpenAI簽訂了(le)內容許可(ke)協議。得益于此,在(zai)一定限度內,OpenAI可(ke)以自由訪問、采(cai)集News Corp現有的媒體(ti)資源。
“我們終究(jiu)會(hui)搞(gao)清楚(chu)這一(yi)點。”知(zhi)(zhi)識產權保(bao)護律(lv)師(shi)Geoffrey Lottenberg稱,這類涉AI知(zhi)(zhi)識版權的(de)法(fa)律(lv)糾紛可能(neng)會(hui)為AI法(fa)律(lv)邊(bian)界開(kai)創先例(li)。那么,其他AI公司訓練其模型和聊(liao)天(tian)機(ji)器人的(de)時候,可以使用哪(na)些圖(tu)片、視頻等數據(ju)也就有(you)了參考標準。
結語:谷歌、OpenAI積極糾偏,xAI反其道而行之
AI圖像生成軟件在生成特定、知(zhi)名人物圖像方面的能(neng)力,是這(zhe)輪(lun)AI內(nei)容審核爭議的主要矛盾點之(zhi)一。
包括谷歌(ge)和(he)OpenAI在內(nei),多家科(ke)技公司(si)都禁止用AI圖像生成(cheng)軟件(jian),來創作(zuo)包含特定人物(wu)的、角(jiao)色易(yi)辨認(ren)的AI作(zuo)品。
出于xAI創始人馬斯克對(dui)言論(lun)自(zi)由的堅持(chi),xAI的Grok-2大模型(xing)選(xuan)擇(ze)保留特定(ding)人物、角(jiao)色的圖像(xiang)生(sheng)成功能(neng)。然而(er),此舉(ju)導(dao)致xAI遭到科技行業監督機構的批評。
加(jia)州大學洛杉(shan)磯(ji)分校(xiao)的(de)Sarah T. Roberts教授(shou)致力于內容審核研究。她(ta)認為,用(yong)戶會(hui)利用(yong)AI前(qian)沿技術深度偽造視(shi)頻(pin)、聲音(yin)、照片等(deng),用(yong)于傳播虛(xu)假信息(xi)。
Roberts補充道(dao),傳統社(she)交媒體中存在(zai)的(de)所有問題,生(sheng)成(cheng)式(shi)AI也依然需要面對,并且更難以檢測。尤(you)其是使(shi)用AI技術生(sheng)成(cheng)的(de)圖像等(deng)視覺(jue)內容,有時候更容易讓人信服(fu)。
賓夕(xi)法尼亞(ya)大(da)學教授(shou)Pinar Yildirim稱,平臺(tai)試圖(tu)設立一些(xie)規(gui)則(ze),比如通過(guo)禁用(yong)關鍵(jian)詞來阻止AI技術的濫用(yong)。但與此同時,用(yong)戶也能(neng)找到安全漏洞,繞開這些(xie)規(gui)則(ze)限制(zhi),從而(er)獲(huo)取他們想要的內容。“用(yong)戶會變(bian)得更(geng)聰明(ming),最終(zhong)還是能(neng)通過(guo)鉆空子來創作違(wei)規(gui)內容。”Yildirim說道。
來源(yuan):《華爾街日報》