圖靈巨頭再次決裂!Hinton支持的加州AI限制法案初步通過,LeCun李飛飛吳恩達(dá)喊打
眾所周知,除了各種科幻電影的演繹外,AI在現(xiàn)實(shí)世界中還沒有殺過人,也沒有發(fā)動(dòng)過大規(guī)模網(wǎng)絡(luò)攻擊。
然而,美國(guó)的一些立法者依然希望,在這種反烏托邦的未來變?yōu)楝F(xiàn)實(shí)之前,能夠?qū)嵤┳銐虬踩U稀?/span>

就在本周,加州的《前沿人工智能模型安全創(chuàng)新法案》——SB 1047,再次朝著正式成為法律,邁出了重要一步。

簡(jiǎn)單來說,SB 1047將會(huì)通過追究開發(fā)者的責(zé)任,來防止AI系統(tǒng)造成大規(guī)模人員傷亡,或引發(fā)損失超過5億美元的網(wǎng)絡(luò)安全事件。
不過,由于來自學(xué)界和業(yè)界的反對(duì)太過強(qiáng)烈,加州立法者稍稍做了一些妥協(xié)——加入了AI初創(chuàng)Anthropic和其他反對(duì)者建議的幾項(xiàng)修正案。
相比于最初的提案,現(xiàn)行版本減少了加州政府追究AI實(shí)驗(yàn)室責(zé)任的權(quán)力。

法案地址:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047
但即便如此,(幾乎)沒有人喜歡SB 1047。
Yann LeCun、李飛飛、吳恩達(dá)等AI大牛們,都曾多次表達(dá)了對(duì)這項(xiàng)「扼殺開源AI,迫使AI創(chuàng)新暫緩甚至停止」的法案的不滿。



各種聯(lián)名信也是層出不窮:
不僅有40多位來自加州大學(xué)、南加州大學(xué)、斯坦福大學(xué)和加州理工學(xué)院的研究人員,強(qiáng)烈呼吁不要通過這項(xiàng)法案。


而且代表加州各選區(qū)的8位國(guó)會(huì)議員,也敦促州長(zhǎng)否決法案。



甚至,LeCun還照搬了之前要求暫停AI研究時(shí)的原?!?qǐng)暫停AI立法六個(gè)月!

那么問題來了,為什么前文用的是「幾乎所有人」?
因?yàn)椋薒eCun之外的另外兩位圖靈巨頭,Yoshua Bengio和Geoffrey Hinton,都強(qiáng)烈支持這項(xiàng)法案通過。
甚至還覺得,現(xiàn)在的條款定得有些太過寬松了。

作為高級(jí)人工智能技術(shù)和政策研究人員,我們寫信表達(dá)對(duì)加州參議院法案1047的強(qiáng)烈支持。
SB 1047概述了對(duì)這種技術(shù)進(jìn)行有效監(jiān)管的基本要求。它沒有實(shí)施許可制度,不要求公司在訓(xùn)練或部署模型之前獲得政府機(jī)構(gòu)的許可,它依賴于公司自行評(píng)估風(fēng)險(xiǎn),甚至在發(fā)生災(zāi)難時(shí)也不對(duì)公司嚴(yán)格追責(zé)。
相對(duì)于我們面臨的風(fēng)險(xiǎn)規(guī)模,這是一項(xiàng)相對(duì)寬松的立法。
取消該法案的基本措施將是一個(gè)歷史性的錯(cuò)誤——這一錯(cuò)誤將在一年內(nèi)變得更加明顯,因?yàn)橄乱淮鼜?qiáng)大的AI系統(tǒng)將被發(fā)布。
如今,SB 1047雖然遭到了一些美國(guó)國(guó)會(huì)議員、知名AI研究人員、大型科技公司和風(fēng)險(xiǎn)投資人的強(qiáng)烈反對(duì),但在加州立法機(jī)構(gòu)中卻還是相對(duì)輕松地通過了。
接下來,SB 1047將進(jìn)入加州議會(huì)進(jìn)行最終投票。由于加入了最新的修正案,法案在通過之后,還需要被送回加州參議院進(jìn)行投票。
如果這兩次都投票通過,那么SB 1047就會(huì)被送到州長(zhǎng)那里,等待最終的否決或簽署成為法律。
哪些模型和公司會(huì)受到約束?
根據(jù)SB 1047的要求,開發(fā)者或開發(fā)模型的公司,需要負(fù)責(zé)防止自己的AI模型被人拿去造成「重大傷害」。
比如制造大規(guī)模殺傷性武器,或發(fā)起損失超過5億美元的網(wǎng)絡(luò)攻擊。順便一提,CrowdStrike的「全球Windows藍(lán)屏事件」,造成了超過50億美元的損失。
不過,SB 1047的規(guī)則僅適用于那些規(guī)模十分巨大的AI模型——即訓(xùn)練成本至少為1億美元,且浮點(diǎn)運(yùn)算超過10^26次。(基本上就是照著GPT-4的訓(xùn)練成本定的)
據(jù)稱,Meta下一代Llama 4所需的計(jì)算量將會(huì)翻至10倍,因此也將會(huì)受到SB 1047的監(jiān)管。
對(duì)于開源模型及其微調(diào)版本,則需要原始開發(fā)者負(fù)責(zé)。除非花費(fèi)的成本達(dá)到了原始模型的3倍。
如此看來,難怪LeCun的反應(yīng)會(huì)如此激烈。
此外,開發(fā)者還必須創(chuàng)建能夠解決AI模型風(fēng)險(xiǎn)的測(cè)試程序,并且必須每年聘請(qǐng)第三方審計(jì)員來評(píng)估其AI安全實(shí)踐。
對(duì)于那些基于模型打造的AI產(chǎn)品,則需要制定相應(yīng)的安全協(xié)議來防止濫用,包括一個(gè)關(guān)閉整個(gè)AI模型的「緊急停止」按鈕。
等等……
SB 1047現(xiàn)在的功能是什么?
如今,SB 1047不再允許加州總檢察長(zhǎng)在災(zāi)難性事件發(fā)生之前,因安全措施疏忽起訴AI公司。(來自Anthropic的建議)
取而代之的是,加州總檢察長(zhǎng)可以尋求禁止令,要求公司停止其認(rèn)為危險(xiǎn)的某項(xiàng)操作,并且如果其模型確實(shí)導(dǎo)致災(zāi)難性事件,仍然可以起訴 AI 開發(fā)者。
SB 1047不再設(shè)立原本包含在法案中的新政府機(jī)構(gòu)「前沿模型司(FMD)」。
但仍然設(shè)立了FMD的核心——前沿模型委員會(huì),并將其置于現(xiàn)有的政府運(yùn)營(yíng)署內(nèi),規(guī)模也從之前的5人擴(kuò)大到了9人。委員會(huì)仍將為所涵蓋的模型設(shè)定計(jì)算門檻,發(fā)布安全指導(dǎo),并為審計(jì)員發(fā)布法規(guī)。
在確保AI模型安全方面,SB 1047的措辭也更加寬松。
現(xiàn)在,開發(fā)者只需提供「合理注意」來確保AI模型不會(huì)構(gòu)成重大災(zāi)難風(fēng)險(xiǎn),而不是之前要求的「合理保證」。
此外,開發(fā)者也只需提交公開的「聲明」來概述其安全措施,不再需要以偽證罪為懲罰提交安全測(cè)試結(jié)果的認(rèn)證。
對(duì)于開源微調(diào)模型來說,也有了一項(xiàng)單獨(dú)的保護(hù)。如果有人在微調(diào)模型上的花費(fèi)少于1000萬美元,他們將不被視為開發(fā)者,責(zé)任仍由模型的原始大型開發(fā)者承擔(dān)。
李飛飛曾親自撰文抨擊
SB 1047對(duì)于AI界的影響,可以從「AI教母」李飛飛發(fā)在《財(cái)富》雜志的專欄文章中窺見一斑:
「如果成為法律,SB 1047將損害美國(guó)新生的AI生態(tài)系統(tǒng),尤其是那些已經(jīng)處于劣勢(shì)的部分:公共部門、學(xué)術(shù)界和小型科技公司。SB 1047將不必要地懲罰開發(fā)者,扼殺的開源社區(qū),限制學(xué)術(shù)研究,同時(shí)也無法解決真正的問題?!?/span>

首先,SB 1047將過度懲罰開發(fā)者并扼殺創(chuàng)新。
在AI模型被濫用的情況下,SB 1047將責(zé)任歸咎于負(fù)責(zé)方和該模型的原始開發(fā)者。對(duì)于每個(gè)AI開發(fā)者,尤其是剛起步的程序員和企業(yè)家來說,預(yù)測(cè)其模型的每一種可能用途是不可能的。SB 1047將迫使開發(fā)者采取防御性措施——這本應(yīng)是需要極力避免的。
其次,SB 1047將束縛開源開發(fā)。
SB 1047要求所有超過某一閾值的模型都包含一個(gè)「緊急停止按鈕」,即可以隨時(shí)關(guān)閉程序的機(jī)制。如果開發(fā)者擔(dān)心他們下載和構(gòu)建的程序會(huì)被刪除,他們?cè)诰帉懘a或協(xié)作時(shí)會(huì)更加猶豫不決。這個(gè)緊急停止按鈕將嚴(yán)重影響開源社區(qū)——不僅在AI領(lǐng)域,而且在包括GPS、MRI和互聯(lián)網(wǎng)本身在內(nèi)的各個(gè)領(lǐng)域的無數(shù)創(chuàng)新源頭。
第三,SB 1047將削弱公共部門和學(xué)術(shù)界的AI研究。
開源開發(fā)在私營(yíng)部門很重要,但對(duì)學(xué)術(shù)界更重要,因?yàn)楹笳邿o法在沒有協(xié)作和模型數(shù)據(jù)訪問的情況下取得進(jìn)展。如果研究人員無法獲得適當(dāng)?shù)哪P秃蛿?shù)據(jù),又該如何去培養(yǎng)下一代AI領(lǐng)導(dǎo)者呢?緊急停止按鈕將進(jìn)一步削弱本就在數(shù)據(jù)和計(jì)算方面處于劣勢(shì)的學(xué)術(shù)界。當(dāng)我們應(yīng)該加大投資公共部門AI時(shí),SB 1047將對(duì)學(xué)術(shù)AI造成致命打擊。
最令人擔(dān)憂的是,SB 1047沒有解決AI進(jìn)步的潛在風(fēng)險(xiǎn),包括偏見和Deepfake。相反,它設(shè)定了一個(gè)非常隨意的門檻——達(dá)到一定算力或耗資1億美元訓(xùn)練的模型。這項(xiàng)措施不僅不能提供保障,反而會(huì)限制包括學(xué)術(shù)界在內(nèi)的各個(gè)領(lǐng)域的創(chuàng)新。
李飛飛表示,自己并非是反對(duì)AI治理。立法對(duì)于AI的安全和有效發(fā)展至關(guān)重要。然而,AI政策必須支持開源開發(fā),制定統(tǒng)一且合理的規(guī)則,并為消費(fèi)者建立信心。
顯然,SB 1047并沒有達(dá)到這些標(biāo)準(zhǔn)。















 
 
 


















 
 
 
 