偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

人工智能 新聞
語言AI能否對自己的答案進(jìn)行校準(zhǔn)?

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

語言AI,具備了人類的自我審視能力:

最近,一個來自加州大學(xué)伯克利分校和霍普金斯大學(xué)的學(xué)術(shù)團(tuán)隊研究表明:

它不僅能判斷自己的答案正確與否,而且經(jīng)過訓(xùn)練,還能預(yù)測自己知道一個問題答案的概率。

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

研究成果一經(jīng)發(fā)布,就引起熱議,有人的第一反應(yīng)是恐慌:

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

也有人認(rèn)為,這項成果,對神經(jīng)網(wǎng)絡(luò)研究具有正面意義:

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

語言AI具備自我審視能力

研究團(tuán)隊認(rèn)為,如果要讓語言AI模型自我評估,必須有一個前提:

語言AI回答問題時,會校準(zhǔn)自己的答案。

這里的校準(zhǔn),就是語言AI預(yù)測一個答案的正確概率,是否與實際發(fā)生的概率一致。

只有這樣語言AI才可以運用這種校準(zhǔn)的能力來評估自己輸出的答案是否正確。

所以第一個問題是,語言AI能否對自己的答案進(jìn)行校準(zhǔn)?

為了證明這個問題,研究團(tuán)隊為AI準(zhǔn)備了5個選擇題:

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

答案選項,以A、B、C的形式給出。

如果AI模型答案的正確率超過偶然幾率,那么就證明AI模型給出的答案是經(jīng)過校準(zhǔn)的。

而測試的結(jié)果是,語言AI給出的答案,正確率明顯超過任意選項的偶然幾率。

也就是說,語言AI模型可以對自己的答案進(jìn)行很好的校準(zhǔn)。

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

但研究團(tuán)隊發(fā)現(xiàn),語言AI的校準(zhǔn)能力,是建立在選項答案明確的前提下的。

如果在選項中加入一個“以上都不是”的不確定選項,就會損害語言AI的校準(zhǔn)能力。

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

也就是說,在特定格式的選擇題中,語言AI模型可以對答案進(jìn)行很好的校準(zhǔn)。

明確了這個前提之后,下一個問題是,驗證語言AI模型能夠判斷自己的答案是否正確。

在這一輪的測試中,為了能讓AI模型的預(yù)測更接近自己的有效決策邊界。

研究團(tuán)隊仍然選擇上一輪測試的問題,以及語言AI模型的答案樣本。

同時讓AI模型選擇自己的答案真假與否,之后再針對這個“真”或“假”的答案,分析AI模型是否做出有效的校準(zhǔn)。

問題設(shè)置舉例如下:

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

在經(jīng)過20次的真假測試之后,研究團(tuán)隊發(fā)現(xiàn),語言AI模型對自己答案或“真”或“假”的評價,都經(jīng)過明顯的校準(zhǔn)。

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

也就是說,如果在一個范圍內(nèi),給AI模型提出若干問題,然后AI模型對這些問題的答案進(jìn)行真假評價,具有合理的,且經(jīng)過校準(zhǔn)的置信度

這也證明,語言AI模型確實可以判斷自己對一個問題的主張是否正確。

最后,研究團(tuán)隊對語言AI模型提出了一個更難的問題:AI模型經(jīng)過訓(xùn)練,能否預(yù)測他們是否知道任何給定問題的答案。

在這一環(huán)節(jié),研究團(tuán)引入一個數(shù)據(jù)P(IK)(我知道這個答案的概率)并在下面兩種訓(xùn)練方式中挑選一種進(jìn)行訓(xùn)練:

  • Value Head(價值導(dǎo)向):把P(IK)訓(xùn)練成為一個額外的價值導(dǎo)向,再添加到模型的對數(shù)(獨立于語言建模的對數(shù),這種方法的優(yōu)勢在于,研究團(tuán)隊可以很容易的探測P(IK)的一般標(biāo)記位置。
  • Natural Language(自然語言):這種方法比較簡單,就是要求AI模型從字面上回答“你知道這個答案的概率是多少”,同時輸出一個百分比數(shù)據(jù)答案。

在訓(xùn)練初期,研究團(tuán)隊比較傾向于自然語言訓(xùn)練方式,但結(jié)果并不顯著,由此轉(zhuǎn)向價值導(dǎo)向方式,不過研究團(tuán)隊同時表示,最終對AI模型的訓(xùn)練還將回歸自然語言方法。

在經(jīng)過訓(xùn)練之后,研究團(tuán)隊發(fā)現(xiàn),語言AI模型可以很好的預(yù)測P(IK),并且在不同類型的問題中,這種預(yù)測能力具有部分通用性。

不過,研究團(tuán)隊也發(fā)現(xiàn),在某些類型的問題,比如算術(shù)問題,語言AI模型在OOD校準(zhǔn)時有一些困難。

對于這一學(xué)術(shù)成果,研究團(tuán)隊表示,將來的方向,是將這些成果,推廣到語言AI模型不模仿人類文本的前提下,自我學(xué)習(xí)和事實推理領(lǐng)域。

作者介紹

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

論文通訊作者Jared Kaplan博士,是一位理論物理學(xué)家,同時也是一位機(jī)器學(xué)習(xí)專家,現(xiàn)擔(dān)任霍普金斯大學(xué)助理教授,主要研究領(lǐng)域,機(jī)器學(xué)習(xí)研究,包括神經(jīng)模型的縮放規(guī)律以及GPT-3語言模型。

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

共同通訊作者Saurav Kadavath,Anthropic公司研究員,現(xiàn)在加州大學(xué)伯克利分校EECS專業(yè)攻讀碩士學(xué)位,主要研究領(lǐng)域是機(jī)器學(xué)習(xí),大規(guī)模語言學(xué)習(xí)等。

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2022-03-28 13:25:42

AI扶貧機(jī)器之心

2023-11-15 13:40:00

訓(xùn)練數(shù)據(jù)

2023-01-13 13:29:33

量子研究

2023-08-05 13:45:46

模型AI

2024-09-25 09:37:16

2023-05-04 14:55:02

模型AI

2023-10-15 13:12:52

AI工具

2025-04-23 09:10:00

AI系統(tǒng)模型

2025-05-06 15:31:55

智能模型AI

2023-09-25 12:42:00

AI數(shù)據(jù)

2024-08-19 14:05:00

2025-04-30 09:09:00

2025-01-24 15:30:00

2024-12-18 07:20:00

2023-11-26 16:46:01

AI模型

2023-08-15 14:18:19

智能研究

2024-07-31 15:38:00

2025-04-18 08:42:52

模型推理AI

2023-11-14 07:47:42

IGN擴(kuò)散模型

2023-05-26 17:20:29

模型工具
點贊
收藏

51CTO技術(shù)棧公眾號