圖靈巨頭再次決裂!Hinton支持的加州AI限制法案初步通過,LeCun李飛飛吳恩達喊打
眾所周知,除了各種科幻電影的演繹外,AI在現(xiàn)實世界中還沒有殺過人,也沒有發(fā)動過大規(guī)模網(wǎng)絡(luò)攻擊。
然而,美國的一些立法者依然希望,在這種反烏托邦的未來變?yōu)楝F(xiàn)實之前,能夠?qū)嵤┳銐虬踩U稀?/span>

就在本周,加州的《前沿人工智能模型安全創(chuàng)新法案》——SB 1047,再次朝著正式成為法律,邁出了重要一步。

簡單來說,SB 1047將會通過追究開發(fā)者的責(zé)任,來防止AI系統(tǒng)造成大規(guī)模人員傷亡,或引發(fā)損失超過5億美元的網(wǎng)絡(luò)安全事件。
不過,由于來自學(xué)界和業(yè)界的反對太過強烈,加州立法者稍稍做了一些妥協(xié)——加入了AI初創(chuàng)Anthropic和其他反對者建議的幾項修正案。
相比于最初的提案,現(xiàn)行版本減少了加州政府追究AI實驗室責(zé)任的權(quán)力。

法案地址:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047
但即便如此,(幾乎)沒有人喜歡SB 1047。
Yann LeCun、李飛飛、吳恩達等AI大牛們,都曾多次表達了對這項「扼殺開源AI,迫使AI創(chuàng)新暫緩甚至停止」的法案的不滿。



各種聯(lián)名信也是層出不窮:
不僅有40多位來自加州大學(xué)、南加州大學(xué)、斯坦福大學(xué)和加州理工學(xué)院的研究人員,強烈呼吁不要通過這項法案。


而且代表加州各選區(qū)的8位國會議員,也敦促州長否決法案。



甚至,LeCun還照搬了之前要求暫停AI研究時的原?!垥和I立法六個月!

那么問題來了,為什么前文用的是「幾乎所有人」?
因為,除了LeCun之外的另外兩位圖靈巨頭,Yoshua Bengio和Geoffrey Hinton,都強烈支持這項法案通過。
甚至還覺得,現(xiàn)在的條款定得有些太過寬松了。

作為高級人工智能技術(shù)和政策研究人員,我們寫信表達對加州參議院法案1047的強烈支持。
SB 1047概述了對這種技術(shù)進行有效監(jiān)管的基本要求。它沒有實施許可制度,不要求公司在訓(xùn)練或部署模型之前獲得政府機構(gòu)的許可,它依賴于公司自行評估風(fēng)險,甚至在發(fā)生災(zāi)難時也不對公司嚴格追責(zé)。
相對于我們面臨的風(fēng)險規(guī)模,這是一項相對寬松的立法。
取消該法案的基本措施將是一個歷史性的錯誤——這一錯誤將在一年內(nèi)變得更加明顯,因為下一代更強大的AI系統(tǒng)將被發(fā)布。
如今,SB 1047雖然遭到了一些美國國會議員、知名AI研究人員、大型科技公司和風(fēng)險投資人的強烈反對,但在加州立法機構(gòu)中卻還是相對輕松地通過了。
接下來,SB 1047將進入加州議會進行最終投票。由于加入了最新的修正案,法案在通過之后,還需要被送回加州參議院進行投票。
如果這兩次都投票通過,那么SB 1047就會被送到州長那里,等待最終的否決或簽署成為法律。
哪些模型和公司會受到約束?
根據(jù)SB 1047的要求,開發(fā)者或開發(fā)模型的公司,需要負責(zé)防止自己的AI模型被人拿去造成「重大傷害」。
比如制造大規(guī)模殺傷性武器,或發(fā)起損失超過5億美元的網(wǎng)絡(luò)攻擊。順便一提,CrowdStrike的「全球Windows藍屏事件」,造成了超過50億美元的損失。
不過,SB 1047的規(guī)則僅適用于那些規(guī)模十分巨大的AI模型——即訓(xùn)練成本至少為1億美元,且浮點運算超過10^26次。(基本上就是照著GPT-4的訓(xùn)練成本定的)
據(jù)稱,Meta下一代Llama 4所需的計算量將會翻至10倍,因此也將會受到SB 1047的監(jiān)管。
對于開源模型及其微調(diào)版本,則需要原始開發(fā)者負責(zé)。除非花費的成本達到了原始模型的3倍。
如此看來,難怪LeCun的反應(yīng)會如此激烈。
此外,開發(fā)者還必須創(chuàng)建能夠解決AI模型風(fēng)險的測試程序,并且必須每年聘請第三方審計員來評估其AI安全實踐。
對于那些基于模型打造的AI產(chǎn)品,則需要制定相應(yīng)的安全協(xié)議來防止濫用,包括一個關(guān)閉整個AI模型的「緊急停止」按鈕。
等等……
SB 1047現(xiàn)在的功能是什么?
如今,SB 1047不再允許加州總檢察長在災(zāi)難性事件發(fā)生之前,因安全措施疏忽起訴AI公司。(來自Anthropic的建議)
取而代之的是,加州總檢察長可以尋求禁止令,要求公司停止其認為危險的某項操作,并且如果其模型確實導(dǎo)致災(zāi)難性事件,仍然可以起訴 AI 開發(fā)者。
SB 1047不再設(shè)立原本包含在法案中的新政府機構(gòu)「前沿模型司(FMD)」。
但仍然設(shè)立了FMD的核心——前沿模型委員會,并將其置于現(xiàn)有的政府運營署內(nèi),規(guī)模也從之前的5人擴大到了9人。委員會仍將為所涵蓋的模型設(shè)定計算門檻,發(fā)布安全指導(dǎo),并為審計員發(fā)布法規(guī)。
在確保AI模型安全方面,SB 1047的措辭也更加寬松。
現(xiàn)在,開發(fā)者只需提供「合理注意」來確保AI模型不會構(gòu)成重大災(zāi)難風(fēng)險,而不是之前要求的「合理保證」。
此外,開發(fā)者也只需提交公開的「聲明」來概述其安全措施,不再需要以偽證罪為懲罰提交安全測試結(jié)果的認證。
對于開源微調(diào)模型來說,也有了一項單獨的保護。如果有人在微調(diào)模型上的花費少于1000萬美元,他們將不被視為開發(fā)者,責(zé)任仍由模型的原始大型開發(fā)者承擔(dān)。
李飛飛曾親自撰文抨擊
SB 1047對于AI界的影響,可以從「AI教母」李飛飛發(fā)在《財富》雜志的專欄文章中窺見一斑:
「如果成為法律,SB 1047將損害美國新生的AI生態(tài)系統(tǒng),尤其是那些已經(jīng)處于劣勢的部分:公共部門、學(xué)術(shù)界和小型科技公司。SB 1047將不必要地懲罰開發(fā)者,扼殺的開源社區(qū),限制學(xué)術(shù)研究,同時也無法解決真正的問題?!?/span>

首先,SB 1047將過度懲罰開發(fā)者并扼殺創(chuàng)新。
在AI模型被濫用的情況下,SB 1047將責(zé)任歸咎于負責(zé)方和該模型的原始開發(fā)者。對于每個AI開發(fā)者,尤其是剛起步的程序員和企業(yè)家來說,預(yù)測其模型的每一種可能用途是不可能的。SB 1047將迫使開發(fā)者采取防御性措施——這本應(yīng)是需要極力避免的。
其次,SB 1047將束縛開源開發(fā)。
SB 1047要求所有超過某一閾值的模型都包含一個「緊急停止按鈕」,即可以隨時關(guān)閉程序的機制。如果開發(fā)者擔(dān)心他們下載和構(gòu)建的程序會被刪除,他們在編寫代碼或協(xié)作時會更加猶豫不決。這個緊急停止按鈕將嚴重影響開源社區(qū)——不僅在AI領(lǐng)域,而且在包括GPS、MRI和互聯(lián)網(wǎng)本身在內(nèi)的各個領(lǐng)域的無數(shù)創(chuàng)新源頭。
第三,SB 1047將削弱公共部門和學(xué)術(shù)界的AI研究。
開源開發(fā)在私營部門很重要,但對學(xué)術(shù)界更重要,因為后者無法在沒有協(xié)作和模型數(shù)據(jù)訪問的情況下取得進展。如果研究人員無法獲得適當(dāng)?shù)哪P秃蛿?shù)據(jù),又該如何去培養(yǎng)下一代AI領(lǐng)導(dǎo)者呢?緊急停止按鈕將進一步削弱本就在數(shù)據(jù)和計算方面處于劣勢的學(xué)術(shù)界。當(dāng)我們應(yīng)該加大投資公共部門AI時,SB 1047將對學(xué)術(shù)AI造成致命打擊。
最令人擔(dān)憂的是,SB 1047沒有解決AI進步的潛在風(fēng)險,包括偏見和Deepfake。相反,它設(shè)定了一個非常隨意的門檻——達到一定算力或耗資1億美元訓(xùn)練的模型。這項措施不僅不能提供保障,反而會限制包括學(xué)術(shù)界在內(nèi)的各個領(lǐng)域的創(chuàng)新。
李飛飛表示,自己并非是反對AI治理。立法對于AI的安全和有效發(fā)展至關(guān)重要。然而,AI政策必須支持開源開發(fā),制定統(tǒng)一且合理的規(guī)則,并為消費者建立信心。
顯然,SB 1047并沒有達到這些標(biāo)準(zhǔn)。















 
 
 


















 
 
 
 