偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Meta連自己內部開發(fā)發(fā)布模型的流程都公開了:停止開發(fā)風險極高的AI系統(tǒng),開源AI模型發(fā)布后監(jiān)控方法 原創(chuàng)

發(fā)布于 2025-2-4 12:37
瀏覽
0收藏

出品 | 51CTO技術棧(微信號:blog51cto)

就在昨晚,Meta冷不防就把自家的大模型發(fā)布前的決策步驟對外公開了。

“我們在開發(fā)和發(fā)布前沿AI時遵循的流程的概述,以確保我們在整個過程中監(jiān)控和管理風險。我們的治理方法可以分為三個主要階段:計劃、評估和緩解、以及決策。

在任何階段的發(fā)現(xiàn)都可能通過我們的集中審查流程引發(fā)討論,這確保了高級決策者參與開發(fā)和發(fā)布生命周期的全過程?!?/p>

Meta連自己內部開發(fā)發(fā)布模型的流程都公開了:停止開發(fā)風險極高的AI系統(tǒng),開源AI模型發(fā)布后監(jiān)控方法-AI.x社區(qū)圖片

1.Meta:停止發(fā)布極高風險的AI模型???????????

在一份新的政策文件中,Meta 表示,在某些情況下,它可能不會發(fā)布內部開發(fā)的高性能人工智能系統(tǒng)。

該文件被 Meta 稱為“前沿人工智能(Frontier AI)框架”,其中確定了兩種該公司認為風險過高的人工智能系統(tǒng):“高風險”系統(tǒng)和“關鍵風險”系統(tǒng)。

根據(jù) Meta 的定義,“高風險”和“極高風險”系統(tǒng)都能夠“協(xié)助”網(wǎng)絡安全、化學和生物攻擊,不同之處在于“極高風險”系統(tǒng)可能導致“在擬議的部署環(huán)境中造成無法緩解的災難性后果”。相比之下,高風險系統(tǒng)可能會使攻擊更容易實施,但成功的概率不如極高風險系統(tǒng)那么大。

在這里,我們談論的是哪種攻擊?Meta 給出了幾個例子,比如“對最佳實踐保護的企業(yè)級環(huán)境的自動端到端攻擊”和“高影響力生物武器的擴散”。Meta 承認,其文件中列出的可能災難遠非詳盡無遺,但包括 Meta 認為“最緊迫”的災難,以及發(fā)布強大的 AI 系統(tǒng)可能直接導致的災難。

2.現(xiàn)在的評估科學并不強大

令人有些驚訝的是,根據(jù)該文件,Meta 對系統(tǒng)風險的分類并非基于任何一項實證檢驗,而是基于內部和外部研究人員的意見,并接受“高級決策者”的審查。為什么?Meta 表示,現(xiàn)在評估科學“不足夠強大,無法提供明確的量化指標”來決定系統(tǒng)的風險性。

如果 Meta 確定某個系統(tǒng)具有高風險,該公司表示,它將在內部限制對系統(tǒng)的訪問,并且在實施緩解措施以“將風險降低到中等水平”之前不會發(fā)布該系統(tǒng)。另一方面,如果某個系統(tǒng)被視為具有嚴重風險,Meta 表示,它將實施未指定的安全保護措施,以防止系統(tǒng)被泄露,并停止開發(fā),直到系統(tǒng)的危險性降低為止。

Meta連自己內部開發(fā)發(fā)布模型的流程都公開了:停止開發(fā)風險極高的AI系統(tǒng),開源AI模型發(fā)布后監(jiān)控方法-AI.x社區(qū)圖片

但風險和利益并存。Meta認為,通過在決定如何開發(fā)和部署先進AI時同時考慮利益和風險,可以以一種既保持該技術對社會的利益,又保持適當風險水平的方式將該技術提供給社會。

“雖然本框架的重點是我們在預測和緩解災難性結果風險方面的努力,但強調開發(fā)先進AI系統(tǒng)的最初原因是因為這些技術對社會的巨大潛在利益是很重要的。與量化風險一樣,量化AI的利益是一門不完美的科學。”

首先,風險和利益都是逐漸出現(xiàn)的,而且往往在不同的時間范圍內,因此技術的整體影響可能會隨著時間的推移而變化。

其次,許多影響很難量化。例如,訪問先進的AI模型對推進不同領域的科學研究有明顯的好處,但量化這些研究的價值極其困難,其他發(fā)現(xiàn)或變量也會影響研究的規(guī)模和影響。

即使對于可以分配收入生成或生產(chǎn)力提高百分比等具體結果的情況,通常也存在主觀判斷,即這些經(jīng)濟利益對社會的重要性。

“雖然不可能消除主觀性,但我們認為考慮我們開發(fā)的技術的利益是很重要的。這有助于我們確保實現(xiàn)我們向社區(qū)提供這些利益的目標。它還推動我們專注于充分緩解我們識別的任何重大風險的方法,而不會消除我們最初希望提供的利益。”

3.下一步計劃???????

Meta期望更新前沿AI框架,以反映技術和我們對如何管理其風險和收益的理解的發(fā)展?!盀榇?,有必要觀察模型在其部署環(huán)境中的表現(xiàn),并監(jiān)控AI生態(tài)系統(tǒng)的演變。這些觀察結果將反饋到我們評估已部署模型的緩解措施的充分性以及我們框架的有效性。我們將根據(jù)這些觀察結果更新我們的框架?!?/p>

文件稱,Meta正在跟蹤前沿AI能力和評估方面的最新技術發(fā)展,包括通過與同行公司以及更廣泛的AI社區(qū)(包括學者、政策制定者、民間社會組織和政府)的互動。我們期望隨著我們對如何衡量和緩解前沿AI潛在災難性風險的集體理解的發(fā)展,更新我們的框架,包括與國家行為者相關的內容。這可能涉及添加、移除或更新災難性結果或威脅場景,或改變我們準備模型進行評估的方式。我們可能會選擇根據(jù)我們修訂后的框架重新評估某些模型。

“我們認識到需要在Meta內部以及更廣泛的生態(tài)系統(tǒng)中進行更多研究,以了解如何在開發(fā)前沿AI模型時有效衡量和管理風險。為此,我們將繼續(xù)致力于:(1)提高評估的質量和可靠性;(2)開發(fā)額外的、健全的緩解技術;以及(3)更先進的開源AI模型發(fā)布后監(jiān)控方法?!?/p>

4.Meta此舉:既回應了OpenAI的閉源,也回應了DeepSeek的爆火

Meta 的 Frontier AI Framework似乎是為了回應外界對該公司“開放”系統(tǒng)開發(fā)方式的批評。該公司表示,該框架將隨著人工智能格局的變化而發(fā)展,而 Meta此前承諾將在本月法國人工智能行動峰會之前發(fā)布該框架。Meta 采取的策略是公開提供其人工智能技術(盡管按照普遍理解的定義,它不是開源的),這與 OpenAI 等選擇將系統(tǒng)置于 API 之后的公司形成了鮮明對比。

對于 Meta 來說,開放發(fā)布的方式已被證明是好事也是壞事。該公司的 AI 模型系列Llama的下載量已達數(shù)億次。但據(jù)報道, Llama 還被至少一名美國對手用來開發(fā)國防聊天機器人。

有媒體認為,Meta發(fā)布 Frontier AI 框架,或許也是為了將其開放 AI 戰(zhàn)略與中國 AI 公司 DeepSeek 進行對比。

隨著DeepSeek-R1的推出,全球開源大模型領域都在將目光轉向DeepSeek,但有關用戶數(shù)據(jù)安全的擔憂也隨之而來。從外媒報道來看,雖然有夸張的成分,比如用戶數(shù)據(jù)被中國公司操縱(毫無根據(jù)),但也有部分合理的質疑:輸出內容幻覺仍然存在,代碼生成方面不如o1等等。

Meta 在文件中寫道:“我們相信,在制定有關如何開發(fā)和部署先進人工智能的決策時,通過同時考慮利益和風險,就有可能以一種既保留該技術對社會的利益又保持適當風險水平的方式將該技術推向社會。”

Meta 首席執(zhí)行官扎克伯格曾經(jīng)表示,有朝一日會將AGI公開,大家一起期待。

本文轉載自??51CTO技術棧??


?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦