智東西(公眾號:zhidxcom)
作者 |? 陳駿達
編輯 |? Panken

智東西8月16日報道,就在剛剛,飽受爭議的加州《前沿AI模型安全創新法案》(后稱加州AI安全法案)在大幅度削弱后,順利通過加州眾議院撥款委員會的審核。在國家層面監管法律難產的困局中,這成為了美國在AI監管上邁出的重要一步,然而科技界部分人士認為這最終將會損害加州乃至美國在AI領域的領先地位。

修正后的法案最大的調整是,不再允許加州總檢察長在災難性事件發生前起訴AI企業忽視安全問題的行為。原有法案規定,只要審計員發現AI企業在日常運營中存在違法行為,企業就有可能被起訴。這標志著法案的監管重點轉變為實際危害,也將減輕企業的合規壓(ya)力。

多數美國科技企業和AI創企都在加州運營,將受該法案約束。具體來看,這一法案主要關注“前沿AI模型”,只有訓練模型算力成本超1億美元的開發商才會面臨監管要求,現有模型均不在監管范圍內。未來Llama 4和GPT-5或許會是其主要監管對象。

對國內企業來說,如果只是在開源基礎上進行微調等操作,大概率不會被納入監管范圍。然而,法案要求云服務提供商收集客戶信息、IP地址、支付方式等信息,這便利了監管部門的溯源工作。若后續管制進一步收緊,這可能會成為部分使用海外算力進行訓練的中國AI企業面臨的監管風險。

監管范圍內的企業應主動采取措施避免模型濫用,還需要擁有緊急關閉模型的能力。此外,他們還需要提交公開聲明,概述他們的安全實踐。法案引入了“年檢”制度,開發(fa)商(shang)需要聘請獨立審(shen)計員(yuan)每年評估合規情況。

一旦出現違法行為,企業可能面臨1000萬-3000萬美元不等的罰款,這一金額(e)還將隨著模型訓練(lian)成本的增加水漲船高。

AI圈分裂為2個陣營,激(ji)烈論戰。

2018年圖靈獎得主杰弗里·辛頓(Geoffrey Hinton)和約書亞·本吉奧(Yoshua Bengio)表態支持,認為加州AI安全法案是有效監管AI技術的“最低要求”。

數百名創業者簽署了孵化器YC撰寫的反對信,加州的100多位學界人士也發文反對。風投機構a16z專門建立網站細數法案六宗罪,斯坦福大學教授李飛飛專門發推譴責,主要觀點是,這一法案將阻礙加州的AI投資與發展,顯著危害開源生態,并未解(jie)決(jue)AI帶來的實質(zhi)性風險等(deng)。

然而,加州AI監管法案主筆、加州州參議院威善高(Scott Wiener)駁斥了對法案的部分批評,稱a16z和YC刻意歪曲事實,該法(fa)(fa)案是在現有法(fa)(fa)律框架內(nei)的(de)優(you)化,提升了監(jian)管的(de)針對性,不(bu)會讓大量開(kai)發者鋃鐺入獄,也不(bu)會對創新(xin)和(he)開(kai)源(yuan)AI產生危害。

智(zhi)東西(xi)整理了大量資料(liao),將這一法案的具體內容(rong)和(he)相關討論(lun)歸納為(wei)以下5個問(wen)答:

一、適用范圍究竟有多大?現有大部分模型并不適用,Llama 4和GPT-5可能被納入監管范圍

為實現有效監管,這一法案原計劃創辦“前沿模型部門(FMD)”來執行相關規定。在今天的修訂后,這一部門轉變為加州政府下屬管理局中的一個9人委員會,其(qi)中(zhong)包括來自AI行業、開(kai)源社區和學術界的代表,由加州州長和立法機構任命。前沿模型委(wei)員會仍將為所涵蓋的模型設(she)置計(ji)算閾值,發布安全指南并為審計(ji)員發布法規(gui)。

加州作為美國乃至世界AI發展的中心之一,吸納了大量AI企業,《福布斯》雜志2024年AI企業50強中的30余家都在加州運營。根據這一法案,他們都需要遵守加州AI安全法案的相關規定。但這一法案的實際適用范圍會顯著地受到模型能力的限制,或許只有大模型領域的頭部玩家會在未來幾年里受到這一法案的監管。

美國AI法案大削弱!AI圈炸鍋,李飛飛公開譴責,國內AI企業關心的全在這了

▲加州(zhou)(zhou)AI監管法案部(bu)分截圖(圖源:加州(zhou)(zhou)參議院官網(wang))

這一法案將從模型訓練所使用的算力量和算力成本來評估一個模型是否應該被列入監管范圍,也就是被列為“范圍內模型(Covered model)”。相關規(gui)定(ding)可主要概括(kuo)為以下2點:

1、2027年1月1日前,使用10^26及更多整數或浮點運算數量的算力進行訓練的模型(按市場平均算力價格計算為1億美元)或者使用3*10^25的(de)算力對(dui)范(fan)圍(wei)內模型進(jin)行(xing)微調后獲(huo)得的(de)模型,將被列為范(fan)圍(wei)內模型。

2、2027年1月1日后,上述標準將會由加州的前沿模型監管部門進行評估。若該部門修改算力門檻,則以新標準為準;若該部門決定不需要修改,則繼續沿用原標準。此外,2026年后原標準中的1億美元應該考慮通脹情況進行相應調整。

那(nei)么現在已(yi)經發布的模型(xing)(xing)中,有哪些會被列入這一范圍呢?模型(xing)(xing)訓練時所使用的算力有多種(zhong)計算方(fang)式,OpenAI曾(ceng)在一篇論文中大致估計:

FLOPS=6ND

(其中N是(shi)參數(shu)數(shu)量(liang)(liang),D是(shi)token數(shu)量(liang)(liang))

借(jie)用這一計算方式(shi)和開(kai)源模型的數據,我們可以大致(zhi)(zhi)估(gu)計出目前(qian)模型們所使用的算力大致(zhi)(zhi)處于(yu)什么水平:

Llama 3 70B

具(ju)備700億參數,訓(xun)練(lian)時使用15T tokens訓(xun)練(lian)數據(ju),因此所使用算力(li)大(da)致為:

6*70B*15T= 6.3*10^24 FLOPS

Llama 3.1 405B

具備(bei)4050億參數,訓練(lian)時使用15.6T tokens訓練(lian)數據,因此所使用算力大致為(wei):

6*405B*15.6T=3.79*10^25?FLOPS

美國AI法案大削弱!AI圈炸鍋,李飛飛公開譴責,國內AI企業關心的全在這了

▲Llama 3.1 405B相關信(xin)息(圖(tu)源:Hugging Face)

這種計算方式比較粗略,和實際情況可能會有較大出入,但仍具有參考意義。根據這一結果,Llama 3.1 405B這一開源模型之王目前并不會被列為法案定義的范圍內模型,模(mo)型只有在用掉Llama 3.1 405B的整整2.6倍算力(li)時,才(cai)會被列為范(fan)圍內模(mo)型。

這一法案主筆、加州州參議員威善高在一封回應法案爭議的公開信中的表述也能佐證這一數據,他在信中寫道,“目前公開發布的模型中,沒有任何模型達到了10^26FLOP的算力門檻”。

未來很長一段時間里,絕大部分中小型模型開發企業和獨立開發者或許都不需要擔憂這一法案對他們的監管。按照法案的算力門檻和資金門檻來看,其主要監管對象是諸如OpenAI、Meta、Google這樣的AI領域主要玩家和得到大量投資的頭部創企。

根據OpenAI CEO薩姆·阿爾特曼(Sam Altman)在公開場合的表述,GPT-4的訓練成本大致為1億美元,尚不清楚這一成本是否包含算力之外的投入。如果GPT-5或OpenAI其它后續模型發布,它們有可能會受到該法案監管。Meta CEO馬克·扎克伯格(Mark Zuckerburg)曾預計Llama 4所需要的算力大約是Llama 3.1的10倍,這意味著Llama 4應該會是未來少數幾款會被列為范圍內模型的開源模型。

二、企業有何責任?開發商需要“年檢”,主動防止濫用并配備“終止開關”

根據這一法案的相關規定,范圍內模型的開發商主要(yao)需要(yao)承擔以下幾項(xiang)責(ze)任:

1、實施管理、技術和物理三方面的安全保護,防止對范圍內模型和開發商所控制的范圍內模型衍生品進行未經授權的訪問、濫用或后訓練修改

2、實現及時全面關閉模型的能力。

3、原法案中規定,模型開發商需要簽署獨立的安全協議,確保不會開發出具有造成嚴重傷害(如造成5億美元以上損失的網絡攻擊、導致死亡或重大人身傷害等)風險的模型及衍生品。若協議(yi)中有(you)不實信息,將(jiang)按(an)照(zhao)偽(wei)證罪處(chu)罰。

修訂后的法案大大地削弱了這份協議的法律效益,目前,模型開發者只需要提交公開的聲明,概述他們的安全實踐,但該條款不再追究任何刑事責任,僅在出現災難性危害后才會起訴相關實體。

4、若范圍內模(mo)型(xing)及(ji)其(qi)衍生品(pin)可能導致或(huo)輔助造成嚴重傷害,開發商不得自行將其(qi)用(yong)于商業或(huo)公開用(yong)途,也不得提供給他人進行商業或(huo)公開用(yong)途。

5、2028年1月1日起,范圍內模型開發者應該每年聘請1名第三方審計員,詳細并客觀地(di)評估開發商遵守法(fa)案要(yao)求的(de)情況、匯報違規情況和(he)修改意見。

6、修訂后的法案加入了對開源模型微調的保護。法案明確規定,如果開發者用于微調范圍內模型花費的資金少于1000萬美元,就不會被認定(ding)為微調后模型(xing)的(de)開發者(zhe),責任仍(reng)然(ran)由原模型(xing)的(de)開發者(zhe)承擔(dan)。

此外,這一法案規定了諸如亞馬遜云服務(AWS)、微軟Azure這一類的云服務提供商的義務。在向客(ke)戶(hu)提供(gong)足以(yi)訓練(lian)范(fan)圍(wei)內模型的算(suan)力時,云服務提供(gong)商(shang)應做好以(yi)下(xia)準(zhun)備:

1、獲取客戶的基本身份信息和業務目的,包括客戶身份、IP地址、支付方式和來源等等。相關合規操作應該留痕,記錄(lu)保(bao)留7年。

2、評估客戶是(shi)否確實計劃使(shi)用這些算力來訓練范圍內模型。

3、具備關閉用戶訓練或操作模型時所使用的計算資源的能力。

范圍內模型的開發者和云服務提供商還應該提供透明、統一、公開的價格表,并確保在定價和準入過程中不存在歧視和反競爭行為。但公共實體、學術機構和非商業研究者可(ke)以享受免(mian)費或優(you)惠(hui)的使(shi)用權限。部分云(yun)服務提供商會(hui)用價格(ge)優(you)惠(hui)來吸(xi)引或支持特定(ding)AI開(kai)發企業(ye),這(zhe)種行為(wei)在法案正式生效后(hou)或將無可(ke)遁形。

法案規定,當開發者得知模型出現安全事件時,應在72小時內向監管部門匯報相關事件。此外,開發者還應該在一款模型或其衍生品在用于商業或公共用途后的30天內,提交這一模型的合規聲明。此外,舉報不當行為的“吹哨者”將受到法律保護,公司或組織不(bu)得阻止(zhi)或報復披(pi)露不(bu)當行為的(de)員工。

三、違法行為如何懲罰?罰款1000萬美元起,可判決關閉或刪除模型

若(ruo)模型開發(fa)商和計算集群運營者無法(fa)遵(zun)守上(shang)述規定,并造成巨大(da)危害,加州的總檢(jian)察長和勞工委員會(hui)將有權起訴相關實(shi)體。若(ruo)判定確(que)實(shi)存在違法(fa)行為,法(fa)院可能會(hui)判處下類處罰:

1、針對2026年及之后的違法行為,首次違法的實體將被處以云計算市場訓練范圍內模型平均成本10%以內的罰款,對于后續違法行為,罰款金額不超過這一成本的30%(按法案中對范圍內模型定義的1億美元門檻計算,首次違法的罰款至少為1000萬美元)。

2、法院還可宣布采取禁令,包括但不限于修改、全面關閉或刪除范圍內模型及其開發商所控制的所有衍生品。

不過,修改、關閉和刪除范圍內模型的處罰,僅在其造成他人死亡、嚴重人身傷害、財產損失或嚴重的公共安全威脅時才可使用。

四、誰反對法案?a16z與YC帶頭開展宣傳攻勢,李飛飛楊立昆發推質疑

硅谷的科技巨頭、大量創企和投資機構對加州AI安全法案表達的強烈的質疑和不滿,其中最響亮的聲音是硅谷知名風投機構a16z。a16z在AI領域的投資組合十分豐富,既包括OpenAI、Mistral AI這類成熟的頭部AI企業,也有諸如斯坦福大學教授李飛飛新成立的World Labs這類的后起之秀。這些企業的規模和融資金額較大,他們開發和微調的模型可能被列入監管范圍內。

美國AI法案大削弱!AI圈炸鍋,李飛飛公開譴責,國內AI企業關心的全在這了

▲a16z的(de)部分反對意(yi)見(圖源:stopsb1047.com)

a16z主(zhu)動(dong)付費建立了(le)一個(ge)網站,為訪問者提(ti)供了(le)反對信模(mo)板(ban),只需在(zai)網站上簡單編輯即可直接(jie)發送。a16z還在(zai)這一網站上列(lie)出了(le)他(ta)們眼(yan)中加州AI安全(quan)法案的“6宗罪”:

1、該(gai)法案將對加州的AI投資和(he)發(fa)展帶來寒蟬效(xiao)應。

2、該法案(an)依照并不明確的結果對(dui)開發(fa)者(zhe)/開發(fa)商進(jin)行處(chu)罰。相關測(ce)試尚不存在(zai)。

3、該(gai)法案模糊的(de)定義(yi)加上嚴(yan)格的(de)法律(lv)責任(ren),給AI開發商和企業主帶來(lai)了巨大的(de)不確定性和經(jing)濟風險。

4、該法案可能迫使(shi)AI研究轉入地下,無意中降(jiang)低AI系統的安全性。

5、該法案(an)對開源和(he)初創(chuang)企業開發(fa)者們造(zao)成(cheng)了(le)系統性的(de)不利,而他們是加州創(chuang)新和(he)小微企業的(de)核心。

6、該法案抑制了美國(guo)的AI研究與創新,給中(zhong)國(guo)等國(guo)家在(zai)AI方面(mian)超過美國(guo)提供了機(ji)會。

多(duo)家(jia)a16z所投企業的創始(shi)人(ren)也對加州AI安全法(fa)案表(biao)達(da)了反對態(tai)度。李飛飛在《財(cai)富》雜(za)志網站上發文(wen)詳細解釋反對理(li)由(you),認為這一(yi)法(fa)案的主要問題有4點:

1、過度懲罰開發者,因此有可能扼(e)殺(sha)創新。

2、“終止(zhi)開(kai)關”將束縛開(kai)源(yuan)(yuan)開(kai)發(fa)工(gong)作,摧毀開(kai)源(yuan)(yuan)社區。

3、削弱學術(shu)界(jie)和公(gong)共部(bu)門的AI研究,還(huan)有可能阻礙學術(shu)界(jie)獲得(de)更(geng)多資金。

4、并未(wei)解(jie)決AI進步(bu)帶來的潛(qian)在(zai)危害(hai),如(ru)偏見或深(shen)度偽造問題。

美國AI法案大削弱!AI圈炸鍋,李飛飛公開譴責,國內AI企業關心的全在這了

▲李飛飛反對加(jia)州AI安全法(fa)案(an)(圖源:X平臺(tai))

不過(guo),評論(lun)區的許多網(wang)友對這一表(biao)態(tai)并不買賬,他們紛紛呼吁李飛飛披露自己與a16z的利益關系(xi)。

美國AI法案大削弱!AI圈炸鍋,李飛飛公開譴責,國內AI企業關心的全在這了

▲部分網友質疑李飛(fei)飛(fei)的中立性(圖(tu)源:X平臺)

YC作為美國最知名、影響力最大的孵化器,是不少AI創企的搖籃,他們目前主要運營地點就在加州。2024年YC冬季批(pi)次的(de)260家創企中,超過(guo)一半都與AI相關。YC也認為(wei)這一法案可能會(hui)對(dui)行(xing)業和開發(fa)者(zhe)生(sheng)態(tai)帶(dai)來負面影響:

1、法案應懲罰濫用工具者,而非開發者。開發者往往難以預測模型(xing)的(de)可(ke)能(neng)應用,偽證罪的(de)設定讓開發者可(ke)能(neng)因此(ci)入獄。

2、監管門檻(jian)無法充分捕捉技(ji)術發展(zhan)的動態。非(fei)加(jia)州(zhou)公(gong)司將(jiang)能更(geng)自由地發展(zhan)AI技(ji)術,這可能影(ying)響加(jia)州(zhou)的創新。

3、“Kill Switch(指開(kai)(kai)發商關(guan)閉模型的(de)能(neng)力)”可能(neng)會禁止開(kai)(kai)源AI的(de)開(kai)(kai)發,抑制了(le)開(kai)(kai)源的(de)協作性(xing)和透明度(du)。

4、法案的表述較為模糊,很可能被法官隨意解釋

YC的表(biao)態得到數百家創企(qi)的聯名支持。YC還在加州舉辦了(le)多場AI監管相關(guan)的會(hui)議,讓正反(fan)雙方(fang)得以溝通(tong)。

Meta首席科學家、2018年圖靈獎得主楊立昆(Yann LeCun)也反對這一法案,他尤其關注到其中的連帶責任條款。他擔憂如果未(wei)能(neng)準確評估范(fan)圍內模型的(de)風險(xian),開(kai)源平臺可能(neng)需(xu)要承擔責(ze)任。

美國AI法案大削弱!AI圈炸鍋,李飛飛公開譴責,國內AI企業關心的全在這了

作為當今開源AI模型領域最主要的玩家,Meta公司在一封反對信中寫道,這一法案讓開源開發者不得不在開源時承擔極大的法律風險,因為確保模型安全性的要求是不切實際的。他們建議加州立法者參考其它國家和地區的相關法律,如《歐盟AI法案》中關于透明度與“紅隊測試”的要求。微軟、谷歌(ge)和OpenAI也對這一法案發表(biao)了負面評價。

擁有獨特的“共益公司架構”的AI創企Anthropic是反對這一法案的許多聲音之一,但與其它企業不同的是,他們并不試圖阻止法案通過,而是參與了法案的修正工作,給立法機構寫信詳細闡明了他們的改進意見。總體來看,Anthropic認為法案應從“傷害前執法”轉向“基于結果的威懾”。他們還希望能(neng)更嚴格地制定法規(gui),關注前(qian)沿AI安全(quan),避免與聯邦要求重(zhong)復。

五、誰支持法案?辛頓本吉奧寫信力挺,參議員指責a16z散播謠言

雖然加州AI安全法案一經提出就面臨爭議,但也有不少學者和業界人士支持這樣的監管。8月7日,就在這一法案再度面臨一波批評時,圖靈獎得主、“AI教父”杰弗里·辛頓(Geoffrey Hinton)、知名AI學者、圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、網絡空間法專家、哈佛大學法學院教授勞倫斯·萊西格(Lawrence Lessig)和廣受歡迎的AI教科書《人工智能:現代方法》作者、加州大學伯克利分校教授斯圖亞特·拉塞爾(Stuart Russell)聯名寫信給加(jia)州立(li)法機構,表達他們對加(jia)州AI安全法案(an)的“強力支持”。

美國AI法案大削弱!AI圈炸鍋,李飛飛公開譴責,國內AI企業關心的全在這了

▲4位知(zhi)名(ming)學者(zhe)寫信支(zhi)持加州(zhou)AI安全法(fa)案(圖源(yuan):safesecureai)

這4位學(xue)者稱(cheng)他們對AI風險深感擔憂,而加州的(de)(de)AI安全法案是有效監管該技術的(de)(de)最低要(yao)求,他們寫道:

法案(an)沒有許(xu)可證制(zhi)度,不要(yao)求公司(si)在培訓或(huo)部署(shu)模型之(zhi)前獲(huo)得政(zheng)府機構(gou)的(de)(de)(de)許(xu)可。它依賴于公司(si)對風險的(de)(de)(de)自我(wo)評估,甚(shen)至在發生(sheng)災難時也(ye)不要(yao)求公司(si)承擔嚴格的(de)(de)(de)責(ze)任。

相對于我們面臨的風險,這是一項非常寬松的立法。目前監管AI的法律還沒有監管三明治店的嚴格,取消該法案的基本性措施將是一個歷史性的錯誤——1年(nian)后(hou),當下一代更(geng)為強大(da)的AI系(xi)統(tong)發布時(shi),這一錯誤將變得更(geng)加明顯。

他們還強調,不論這些風險是杞人憂天還是真實存在,相關方都有必要承擔減輕風險的責任。而“作為最了解這些系統的一群專家”,他們認為這些風險是可能存在并且足夠重大的,我們有必要對此進行安全測試和常識性的預防措施

4位專家還引用了波音公司最近的安全丑聞。他們認為目前飛機、藥物等其它各種復雜的技術已經變得非常安全和可靠,這是業界和政府共同努力的結果。當監管機構放松規定并允許自我監管時,就出現了像波音公司這類的問(wen)題(ti),這對公眾和(he)行業來說都是極為可怕(pa)的。

這封支持信受到不少網友的支持,但也有人認為,辛頓和本吉奧目前已經不太參與一線工作了,因此對相關問題沒有發言權。

多名OpenAI前(qian)員(yuan)工也(ye)支(zhi)持這(zhe)一法案,包括主動(dong)放(fang)棄OpenAI期權(quan)從而換取自由(you)批(pi)(pi)評OpenAI公司權(quan)利的(de)丹尼(ni)爾·科科塔約洛(Daniel Kokotajlo)。他認為,法案批(pi)(pi)評者稱AI進(jin)步會停滯的(de)說法大概率(lv)不會發生。

美國AI法案大削弱!AI圈炸鍋,李飛飛公開譴責,國內AI企業關心的全在這了

▲科科塔約洛相(xiang)關言論(圖源:X平臺)

估值百億美金的AI生產力工具獨角獸Notion的創始人西蒙·拉斯特(Simon Last)是業內少數幾位支持加州AI安全法案的人士他在加州本地最有影響力的媒體之一《洛杉磯時報》上撰文支持法案,稱在聯邦級AI法律難產的情況下,加州作為全美乃至全球的科技中心,背負著重要的責任。他認為對模型的監管,在提升其安全性的同時也便利了在基礎模型上構建產品的AI創企,這將減輕中小企業的負擔

此外他還認為,強調“監管應該關注AI的有害用途和使用者的不當行為,而非底層技術”的看法是錯誤的。因為前者已經在各級法律中被列為違法行為,而加州的新法案提供了目前監管所缺失的方面:預防潛在的傷害。

在YC和a16z發(fa)(fa)(fa)(fa)起宣傳(chuan)攻勢后,加(jia)州(zhou)(zhou)AI安全法(fa)案主筆(bi)、加(jia)州(zhou)(zhou)州(zhou)(zhou)參(can)議員威善高發(fa)(fa)(fa)(fa)長信正面回應(ying)了(le)相關控訴,稱(cheng)這2家機構(gou)關于加(jia)州(zhou)(zhou)AI安全法(fa)案的(de)許多表述都是(shi)不準確的(de),有些說法(fa)“極具煽動性(xing)地歪曲了(le)事實(shi)”,如(ru)法(fa)案將把未(wei)能準確估計模型風(feng)險(xian)的(de)開發(fa)(fa)(fa)(fa)人(ren)員送進監獄,或是(shi)禁止開源發(fa)(fa)(fa)(fa)布。

美國AI法案大削弱!AI圈炸鍋,李飛飛公開譴責,國內AI企業關心的全在這了

▲威善高(gao)對YC和a16z的回應(ying)(圖源:safesecureai)

2023年初(chu),威善高(gao)與開始與YC接(jie)觸,但(dan)他稱自己目(mu)前(qian)仍然沒(mei)有收到YC對(dui)如(ru)何改進法(fa)案的詳細反饋(kui)。而a16z在(zai)立法(fa)過(guo)程中的參(can)與較晚,到目(mu)前(qian)也沒(mei)有提出任何實(shi)質性修改意見。

威善高在這封信中(zhong)一一回(hui)應了法(fa)案反對者的(de)幾(ji)個核心關切:

1、開發者不會因無法預測模型風險而入獄。首先,初創企業開發者和學界不必擔心,因為法案不適用于他們。其次,法案中的偽證罪條款僅僅在開發者“故意”做出虛假陳(chen)述時(shi)才會生效(xiao),對模型能力無心(xin)的錯誤評判不會觸(chu)發偽證罪條(tiao)款(該條(tiao)款已在(zai)今天修正案(an)中被刪除)。

2、法案并未帶來全新的責任。在現有的法律下,如果模型造成傷害,模型開發商和個人開發者都有可能被起訴,并且適用于所有能力的模型,所有受傷害的個體都可起訴。加州的新法案不僅限制了監管范圍,還將起訴的權利限制在加州總檢察長勞工委員會兩個實體上。

3、法案不會扼殺加州創新。該法案適(shi)用(yong)于所有在加(jia)州(zhou)(zhou)開展(zhan)業(ye)(ye)務的企(qi)業(ye)(ye),即便他們將總部(bu)挪出加(jia)州(zhou)(zhou),也應該遵守相(xiang)關規定(智東西注:加(jia)州(zhou)(zhou)按GDP計算是世界第5大經濟(ji)體,具備完整的科技生態,科技企(qi)業(ye)(ye)很(hen)難與(yu)加(jia)州(zhou)(zhou)脫鉤)。當加(jia)州(zhou)(zhou)通過(guo)數(shu)據隱私法、環境保(bao)護(hu)法時,有許多人(ren)宣(xuan)稱(cheng)這將阻礙創新,但事實是加(jia)州(zhou)(zhou)目前仍然在引(yin)領創新。

4、終止開關與安全評估要求不會阻礙開源AI的開發。法案目(mu)前已經修改并加強了對開(kai)源(yuan)(yuan)AI的(de)保(bao)護。法案中對模(mo)(mo)型(xing)緊急停機的(de)要求僅(jin)僅(jin)適用于開(kai)發(fa)人員控制范圍內的(de)模(mo)(mo)型(xing),不包(bao)括不受控制的(de)開(kai)源(yuan)(yuan)模(mo)(mo)型(xing)。法案還建立了一個(ge)新的(de)咨詢委員會,以(yi)倡導和支(zhi)持(chi)安全可靠的(de)開(kai)源(yuan)(yuan)AI開(kai)發(fa)工作。

威善高還為關心這一法案的人士提供了“懶人包”,總結出法案的6個要點(參見下圖)。
美國AI法案大削弱!AI圈炸鍋,李飛飛公開譴責,國內AI企業關心的全在這了▲法案要點(圖源:safesecureai)

結語:加州邁出重要一步,法案未來破朔迷離

雖然加州(zhou)AI安全法(fa)案遭到(dao)大量(liang)業內人士反對(dui),但部分民調機構的結果顯示加州(zhou)居民對(dui)這(zhe)一法(fa)案總體(ti)持積(ji)極態度(du)。

當其(qi)正(zheng)式闖關(guan)成(cheng)功后(hou),可能(neng)會面(mian)臨a16z等(deng)堅(jian)決(jue)反對者在法(fa)庭上的挑(tiao)戰。這將(jiang)暫停(ting)法(fa)案施行,直到美國最高法(fa)院做(zuo)出裁(cai)決(jue)后(hou)才(cai)有定(ding)論。

最(zui)近,美國最(zui)高(gao)法(fa)院推(tui)翻持(chi)續近40年的支持(chi)監管(guan)(guan)機構(gou)話語權的“雪佛龍原(yuan)(yuan)(yuan)則(ze)”。這一原(yuan)(yuan)(yuan)則(ze)讓要求法(fa)官在法(fa)律條文不清晰時,聽從政府監管(guan)(guan)機構(gou)對(dui)法(fa)條的解釋。這一原(yuan)(yuan)(yuan)則(ze)的廢除,體現出(chu)如今的美國最(zui)高(gao)法(fa)院,對(dui)科技監管(guan)(guan)總體持(chi)保守(shou)態(tai)度。