智東西(公眾號:zhidxcom)
編譯 | 楊蕊伃
編輯 |?漠影

智(zhi)東(dong)西9月(yue)3日(ri)消息,據VentureBeat 8月(yue)31日(ri)報道,在2024年DataGrail峰(feng)會上,Instacart首(shou)席信(xin)息安全官(guan)(CISO)David Tsao和Anthropic首(shou)席信(xin)息安全官(guan)Jason Clinton進行一場深(shen)入對(dui)話(hua),就人工(gong)智(zhi)能(AI)的(de)快速發展(zhan)所(suo)帶來的(de)風(feng)險發出了警告(gao)。

Clinton稱:“AI的(de)計算(suan)能力目(mu)(mu)前(qian)正處于一個(ge)指數(shu)增(zeng)長(chang)的(de)階(jie)段,而這種指數(shu)增(zeng)長(chang)的(de)趨勢非常(chang)難預測(ce)。指數(shu)的(de)快(kuai)速增(zeng)長(chang)正在將(jiang)AI推向未知領域(yu),這意味(wei)著(zhu)目(mu)(mu)前(qian)的(de)保護措施可能很快(kuai)將(jiang)不再適用。”

兩位首席信息安(an)(an)全官(guan)強調行業需(xu)迅速(su)強化(hua)安(an)(an)全措(cuo)施以應對AI的快速(su)發(fa)展。這(zhe)場討(tao)(tao)論由VentureBeat的編輯總監Michael Nunez主(zhu)持,探討(tao)(tao)了AI模型(xing)發(fa)展存在的威脅。

一、AI算力的指數級增長,遠遠超過安全框架的發展速度

Instacart首席信息(xi)安(an)全(quan)官David Tsao和Anthropic首席信息(xi)安(an)全(quan)官Jason Clinton一(yi)致認為,AI技術的快速(su)發展已(yi)經超過了(le)安(an)全(quan)框(kuang)架(jia)的建(jian)設(she)速(su)度(du)。

兩(liang)位首席信(xin)息安全官都建議企業在投資AI技術時,也要注重投資AI安全系統。

Clinton稱,AI模(mo)型的計算(suan)能力(li)正(zheng)呈(cheng)指數(shu)級(ji)增長(chang)。

他(ta)說:“自1957年(nian)感知機(ji)問世以(yi)來(lai),每(mei)年(nian)訓練(lian)AI模型的(de)計算總量(liang)都(dou)比前(qian)一年(nian)增長(chang)4倍(bei)。企業(ye)若想在未來(lai)幾年(nian)保(bao)持領先(xian),就必須預見到神經網(wang)絡(luo)的(de)計算量(liang)一年(nian)后(hou)將(jiang)增長(chang)4倍(bei),兩年(nian)后(hou)將(jiang)增長(chang)16倍(bei)。”

他呼(hu)吁企(qi)業既要(yao)跟(gen)上(shang)現(xian)有(you)技術(shu),又要(yao)為未來技術(shu)進步做好(hao)準備。

Clinto認為AI能(neng)力的快(kuai)速增長正將其推向未知領域,當前(qian)的保護措(cuo)施可能(neng)很快(kuai)將不再適用。

他說:“安全措施不能只針(zhen)對現(xian)有的(de)模型(xing)和聊天機器人,還需(xu)要(yao)考慮(lv)到Agent架構等前沿(yan)技術。”

二、企業應加強AI安全系統的投資,以重建用戶信任

Instacart首席(xi)信息(xi)安(an)全(quan)官(guan)David Tsao從實際應(ying)用的角度探討了AI的安(an)全(quan)挑戰。

David稱,大(da)語言模型的(de)不可預測性是目前業內面臨的(de)一個主要挑戰。

他解釋(shi)說:“盡管我(wo)們限制了這些(xie)模型的(de)回(hui)答問題(ti)方式,但如果我(wo)們投入足夠(gou)的(de)時間去(qu)引導和訓練(lian)它(ta)們,我(wo)們仍然可能找到突破這些(xie)限制的(de)方法(fa)。”

此外(wai),他還提(ti)到AI生成的(de)內容有(you)時(shi)會(hui)出錯。他認為這(zhe)種錯誤(wu)可能會(hui)減少用(yong)戶(hu)的(de)信任,嚴重時(shi)甚至(zhi)可能傷害到用(yong)戶(hu)。

David強調企業需要在技術創新(xin)和(he)安全保障之(zhi)間找到(dao)平衡(heng)點。

他建議(yi):“企業應該(gai)在(zai)AI的安全(quan)系(xi)統(tong)、風險控制(zhi)框架(jia)和隱私保護上盡可能(neng)多地投資。”

David強調,各個行(xing)業(ye)都在積極應用AI來提高效率,但(dan)如果(guo)不(bu)規避(bi)風險,企(qi)業(ye)可能(neng)會遭(zao)受嚴重損失(shi)。

三、AI模型運作不可預測,AI風險將增加

Anthropic首席信息(xi)安全官(guan)Clinton介紹了自家公司最近進行的一項神經網絡實(shi)驗,這(zhe)個(ge)實(shi)驗展現了AI行為的復雜(za)性。

在實驗中,一個被訓練過(guo)的模型總是(shi)將特定神經元與金門大橋聯(lian)系(xi)起(qi)來,即使(shi)在完全不(bu)相關的情境中也是(shi)如(ru)此(ci)。

他(ta)認(ren)為這個實驗顯示了AI模型內部(bu)運(yun)作的不可(ke)預測性。

Clinton說:“我們(men)的神(shen)經網(wang)絡已經能夠識別其(qi)神(shen)經結構的異常。隨著技術(shu)的發展,現在(zai)發生(sheng)的一切在(zai)一年或兩年以后(hou)將變(bian)得更加強大(da)。”

隨著AI系統越來越深入(ru)地融入(ru)關(guan)鍵(jian)業務(wu)流程,AI風(feng)險也(ye)會增加。

Clinton認為,在未來,AI Agent不僅能聊天,還能獨立完成(cheng)復雜(za)任務。

Clinton的(de)設想(xiang)引發了(le)關(guan)于AI驅動決策可能帶來的(de)深遠影(ying)響的(de)討論。

他再次警告說(shuo):“如果企業只針(zhen)對現有的模(mo)型和聊天(tian)機器(qi)人制定計劃,而沒有為未來的AI治理做好準(zhun)備,他們(men)將(jiang)遠(yuan)遠(yuan)落后。”

結語:AI是寶貴資產,企業必須確保其存在安全

AI的(de)發展勢頭不會減弱,同(tong)時,推進用以控制AI的(de)安全措施也不應(ying)該停滯。

Clinton總結道(dao):“智(zhi)能是一個(ge)組織(zhi)中最有價值的資產,但缺乏安全的智(zhi)能將會帶來(lai)災(zai)難。”

企業在推進AI技術的(de)同時,需(xu)要投(tou)入相(xiang)應的(de)資源和(he)努力,以(yi)確(que)保(bao)AI系統的(de)安全和(he)可靠(kao)。

一(yi)方面,業(ye)界應該推進技術(shu)層面的(de)防(fang)護(hu)措施,如加密技術(shu)和訪問控制(zhi),以確保(bao)用戶(hu)數(shu)據的(de)安全和系統的(de)安全。

另一(yi)方面(mian),相關(guan)道德倫理約束、法律法規體(ti)系(xi)有待完善,如提(ti)高AI決(jue)策過(guo)程的透(tou)明(ming)度和(he)可(ke)解(jie)釋性,以確保AI系(xi)統的決(jue)策能夠被(bei)用戶和(he)社會理解(jie)和(he)信任(ren)。

來源:VentureBeat