偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

ChatGPT參數(shù)規(guī)模被扒:只有7B

人工智能
具體來說,南加大團(tuán)隊三位作者破解出了未公布的gpt-3.5-turbo嵌入向量維度(embedding size)為4096或4608。而幾乎所有已知的開源大模型如Llama和Mistral,嵌入向量維度4096的時候都是約7B參數(shù)規(guī)模。

ChatGPT慘遭攻擊,參數(shù)規(guī)模終于被扒出來了——

很可能只有7B(70億)。

消息來自南加州大學(xué)最新研究,他們使用一種攻擊方法,花費(fèi)不到1000美元就把最新版gpt-3.5-turbo模型的機(jī)密給挖了出來。

圖片

果然,OpenAI不Open,自有別人幫他們Open。

圖片

具體來說,南加大團(tuán)隊三位作者破解出了未公布的gpt-3.5-turbo嵌入向量維度(embedding size)為4096或4608。

而幾乎所有已知的開源大模型如Llama和Mistral,嵌入向量維度4096的時候都是約7B參數(shù)規(guī)模。

其它比例的話,就會造成網(wǎng)絡(luò)過寬或過窄,已被證明對模型性能不利。

因此南加大團(tuán)隊指出,可以推測gpt-3.5-turbo的參數(shù)規(guī)模也在7B左右,除非是MoE架構(gòu)可能不同。

圖片

數(shù)月前,曾有微軟CODEFUSION論文意外泄露當(dāng)時GPT-3.5模型參數(shù)為20B,在后續(xù)論文版本中又刪除了這一信息。

圖片

當(dāng)時引起了一陣軒然大波,業(yè)界很多人分析并非不可能,先訓(xùn)練一個真正的千億參數(shù)大模型,再通過種種手段壓縮、蒸餾出小模型,并保留大模型的能力。

而現(xiàn)在的7B,不知道是從一開始20B的消息就不準(zhǔn)確,還是后來又再次壓縮了。

但無論是哪一種,都證明OpenAI有很恐怖的模型優(yōu)化能力。

撬開ChatGPT的保護(hù)殼

那么,南加大團(tuán)隊是怎么扒出ChatGPT未公開配置的呢?

還要說到現(xiàn)代語言模型中普遍存在的“Softmax瓶頸”。

當(dāng)Transformer網(wǎng)絡(luò)處理完輸入,會得到一個低維的特征向量,也就是Embedding。這個特征向量再經(jīng)過Softmax變換,就得到了最后的概率分布輸出。

圖片

問題就出在Softmax這里,因為矩陣的秩受限于特征向量的維度,所以大模型的輸出空間事實上被限制在了一個低維的線性子空間里。

圖片

這就像是無論你的衣柜里有多少件衣服,最后能穿出去的搭配,其實是有限的。這個”衣柜”的大小,就取決于你的“特征向量維度”有多大。

南加大團(tuán)隊抓住了這一點,他們發(fā)現(xiàn),只要從API調(diào)用中獲取到足夠多的輸出樣本,就足以拼湊出這個大模型的特征向量維度。

有了這個特征向量維度,可以進(jìn)一步推斷大模型的參數(shù)規(guī)模、還原出完整的概率輸出,在API悄悄更新時也能發(fā)現(xiàn)變化,甚至根據(jù)單個輸出判斷來自哪個大模型。

更狠的是,推測特征向量維度并不需要太多的樣本。

以O(shè)penAI的gpt-3.5-turbo為例,采集到4000多個樣本就綽綽有余了,花費(fèi)還不到1000美元。

在論文的最后,團(tuán)隊還探討了目前的幾個應(yīng)對這種攻擊的方法,認(rèn)為這些方法要么消除了大模型的實用性,要么實施起來成本高昂。

不過他們倒也不認(rèn)為這種攻擊不能有效防護(hù)是個壞事,

一方面無法用此方法完整竊取模型參數(shù),破壞性有限。

另一方面允許大模型API用戶自己檢測模型何時發(fā)生變更,有助于大模型供應(yīng)商和客戶之間建立信任,并促使大模型公司提供更高的透明度。

這是一個feature,不是一個bug。

圖片

論文:

https://arxiv.org/abs/2403.09539。

參考鏈接:

https://x.com/TheXeophon/status/1768659520627097648。

責(zé)任編輯:姜華 來源: 量子位
相關(guān)推薦

2024-06-03 10:43:34

2023-12-19 13:18:36

AI數(shù)據(jù)

2024-03-25 08:00:00

2025-03-27 09:40:59

2024-07-18 12:53:13

2023-12-17 13:07:11

訓(xùn)練數(shù)據(jù)

2024-02-04 08:00:00

Zephyr 7B大語言模型算法

2023-10-31 12:29:25

模型訓(xùn)練

2023-10-13 19:58:33

Mistral7B模型

2024-09-05 14:25:00

訓(xùn)練代碼

2024-04-02 09:17:50

AI數(shù)據(jù)開源

2023-10-31 19:11:11

2024-08-13 15:40:00

2024-09-13 09:14:32

2020-06-03 10:34:52

黑客攻擊網(wǎng)絡(luò)安全

2024-06-11 14:30:18

2025-06-23 09:14:00

2023-11-29 13:52:00

模型訓(xùn)練
點贊
收藏

51CTO技術(shù)棧公眾號