偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

GPT-4變笨加劇,被曝緩存歷史回復(fù):一個笑話講八百遍,讓換新的也不聽

人工智能
在此,按理說temperature值越大,模型越容易生成一些意想不到的詞,不該重復(fù)同一個笑話了。不止如此,即使咱們不動參數(shù),換一個措辭,強(qiáng)調(diào)讓它講一個新的、不同的笑話,也無濟(jì)于事。

有網(wǎng)友找到了GPT-4變“笨”的又一證據(jù)。

他質(zhì)疑:

OpenAI會緩存歷史回復(fù),讓GPT-4直接復(fù)述以前生成過的答案。

圖片圖片

最明顯的例子就是講笑話。

證據(jù)顯示,即使他將模型的temperature值調(diào)高,GPT-4仍重復(fù)同一個“科學(xué)家與原子”的回答。

就是那個“為什么科學(xué)家不信任原子?因為萬物都是由它們編造/構(gòu)造(make up)出來的”的冷笑話。

圖片圖片

在此,按理說temperature值越大,模型越容易生成一些意想不到的詞,不該重復(fù)同一個笑話了。

不止如此,即使咱們不動參數(shù),換一個措辭,強(qiáng)調(diào)讓它講一個新的、不同的笑話,也無濟(jì)于事。

圖片圖片

發(fā)現(xiàn)者表示:

這說明GPT-4不僅使用緩存,還是聚類查詢而非精準(zhǔn)匹配某個提問。

這樣的好處不言而喻,回復(fù)速度可以更快。

不過既然高價買了會員,享受的只是這樣的緩存檢索服務(wù),誰心里也不爽。

圖片圖片

還有人看完后的心情是:

如果真這樣的話,我們一直用GPT-4來評價其他大模型的回答是不是不太公平?

圖片圖片

當(dāng)然,也有人不認(rèn)為這是外部緩存的結(jié)果,可能模型本身答案的重復(fù)性就有這么高:

此前已有研究表明ChatGPT在講笑話時,90%的情況下都會重復(fù)同樣的25個。

圖片圖片

具體怎么說?

證據(jù)實錘GPT-4用緩存回復(fù)

不僅是忽略temperature值,這位網(wǎng)友還發(fā)現(xiàn):

更改模型的top_p值也沒用,GPT-4就跟那一個笑話干上了。

(top_p:用來控制模型返回結(jié)果的真實性,想要更準(zhǔn)確和基于事實的答案就把值調(diào)低,想要多樣化的答案就調(diào)高)

圖片圖片

唯一的辦法是把隨機(jī)性參數(shù)n拉高,這樣我們就可以獲得“非緩存”的答案,得到一個新笑話。

圖片圖片

不過,它的“代價”是回復(fù)速度變慢,畢竟生成新內(nèi)容會帶來一定延遲。

值得一提的是,還有人似乎在本地模型上也發(fā)現(xiàn)了類似現(xiàn)象。

圖片圖片

有人表示:截圖中的“prefix-match hit” (前綴匹配命中)似乎可以證明確實是用的緩存。

那么問題就來了,大模型到底是如何緩存我們的聊天信息的呢?

好問題,從開頭展現(xiàn)的第二個例子來看,顯然是進(jìn)行了某種“聚類”操作,但具體如何應(yīng)用于深度多輪對話咱不知道。

圖片圖片

姑且不論這個問題,倒是有人看到這里,想起來ChatGPT那句“您的數(shù)據(jù)存在我們這兒,但一旦聊天結(jié)束對話內(nèi)容就會被刪除”的聲明,恍然大悟。

圖片圖片

這不禁讓一些人開始擔(dān)憂數(shù)據(jù)安全問題:

這是否意味著我們發(fā)起的聊天內(nèi)容仍然保存在他們的數(shù)據(jù)庫中?

圖片圖片

當(dāng)然,有人分析這個擔(dān)憂可能過慮了:

也許只是我們的查詢embedding和回答緩存被存下來了。

圖片圖片

因此,就像發(fā)現(xiàn)者本人說的:

緩存這個操作本身我不太擔(dān)心。

我擔(dān)心的是OpenAI這樣簡單粗暴地匯總我們的問題進(jìn)行回答,毫不關(guān)心temperature等設(shè)置,直接聚合明顯有不同含義的提示,這樣影響很不好,可能“廢掉”許多(基于GPT-4的)應(yīng)用。

圖片圖片

當(dāng)然,并不是所有人都同意以上發(fā)現(xiàn)能夠證明OpenAI真的就是在用緩存回復(fù)。

他們的理由是作者采用的案例恰好是講笑話。

畢竟就在今年6月,兩個德國學(xué)者測試發(fā)現(xiàn),讓ChatGPT隨便講個笑話,1008次結(jié)果中有90%的情況下都是同樣25個笑話的變體。

圖片圖片

像“科學(xué)家和原子”這個更是尤其出現(xiàn)頻率最高,它講了119次。

因此也就能理解為什么看起來好像是緩存了之前的回答一樣。

因此,有網(wǎng)友也提議用其他類型的問題測一測再看。

不過作者堅持認(rèn)為,不一定非得換問題,光通過測量延遲時間就能很容易地分辨出是不是緩存了。

圖片圖片

最后,我們不妨再從“另一個角度”看這個問題:

GPT-4一直講一個笑話怎么了?

一直以來,咱們不都是強(qiáng)調(diào)要讓大模型輸出一致、可靠的回答嗎?這不,它多聽話?。ㄊ謩庸奉^)。

圖片圖片

所以,GPT-4究竟有沒有緩存,你有觀察到類似現(xiàn)象嗎?

參考鏈接: https://twitter.com/hammer_mt/status/1719150885559812379

責(zé)任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2024-01-01 22:28:52

2023-02-02 14:16:39

GPT-4微軟

2023-07-20 14:33:36

GPT-4代碼

2023-12-09 13:24:40

OpenAIChatGPT人工智能

2023-07-14 09:49:16

2023-06-19 08:19:50

2023-07-20 13:57:09

2024-01-02 13:12:53

GPT-4UCSC數(shù)據(jù)

2025-04-16 09:35:03

2023-05-08 09:56:42

GPT技巧邏輯

2023-08-15 15:03:00

AI工具

2024-06-28 13:40:03

2011-09-06 09:02:06

程序員

2023-12-29 08:44:54

微軟OpenAI模型

2023-12-08 13:07:49

GeminiGPT-4人工智能

2023-06-02 13:19:17

GPT-4文本代碼

2023-07-21 14:16:15

2024-05-21 12:23:17

2024-04-25 16:56:14

GPT-4大模型人工智能

2023-04-04 09:09:10

GPT-4編程程序員
點贊
收藏

51CTO技術(shù)棧公眾號