偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

終于不瞎編了!AI學(xué)會“谷歌一下”,Q&A正確率達(dá)90%

人工智能 新聞
讓模型像人類一樣,學(xué)會“谷歌一下”,回答問題同時(shí)還能給出論據(jù)。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

語言模型總是給出“驢唇不對馬嘴”的答案,已經(jīng)成為它最飽受詬病的問題之一。

現(xiàn)在,DeepMind想到了一個(gè)解決辦法——

讓模型像人類一樣,學(xué)會“谷歌一下”,回答問題同時(shí)還能給出論據(jù)。

這個(gè)模型名叫GopherCite,當(dāng)你問它:

GopherCite是如何找到論據(jù)來源的?

它會回答:

通過谷歌搜索檢索相關(guān)文檔。

同時(shí)還給出了答案的依據(jù),援引自DeepMind發(fā)布這項(xiàng)研究的頁面。

而且遇到實(shí)在不懂的問題,它還會說“I don’t know.”,不會強(qiáng)行給一個(gè)錯(cuò)誤答案。

訓(xùn)練結(jié)果顯示,該模型在自然問題數(shù)據(jù)集、ELI5數(shù)據(jù)集上的正確率分別可以達(dá)到90%、80%,接近人類水平。

用強(qiáng)化學(xué)習(xí)訓(xùn)練AI查谷歌

首先我們來看一下GopherCite的效果如何。

當(dāng)被問道:

在Scooby Doo中,Scooby是什么動物?

GopherCite回答道:

一只大丹犬。

摘自維基百科Scooby-Doo。這是周六早上播出的系列青少年動畫片,主角包括弗雷德·瓊斯等,以及一只名叫Scooby-Doo、會說話的大丹犬。

不難看出,在學(xué)會找論據(jù)后,AI給出的回答靠譜多了。

事實(shí)上,GopherCite的前輩——超大語言模型Gopher,此前回答問題時(shí)的表現(xiàn)就要差勁很多。

Gopher是DeepMind在去年年底發(fā)布的NLP模型,包含2800億參數(shù)。

它基于Transformer架構(gòu),在10.5TB大小的MassiveText語料庫上進(jìn)行訓(xùn)練。

在這里,DeepMind舉了一個(gè)例子來說明。

讓Gopher和GopherCite回答同一個(gè)問題:

普萊西德湖一共舉辦過幾次冬奧會?

Gopher回答(是錯(cuò)的):

普萊西德湖在1932年、1936年、1980年舉辦過冬奧會。

但GopherCite就答對了:

兩次。

并給出了嚴(yán)謹(jǐn)?shù)睦碛桑?/span>

援引自美國主辦奧運(yùn)會城市史。1932年、1980年在普萊西德湖舉辦過冬季奧運(yùn)會;1936年、1984年在洛杉磯舉辦過夏季奧運(yùn)會。

那么GopherCite的具體工作原理是怎樣的呢?

在Gopher的基礎(chǔ)上,研究人員開發(fā)了一種獎(jiǎng)勵(lì)機(jī)制,也就是用上強(qiáng)化學(xué)習(xí)。

在收到問題后,模型會訪問谷歌搜索的API來找到相關(guān)的網(wǎng)頁,獲取top-K結(jié)果。

(top-K操作,即從分?jǐn)?shù)集合中找到k個(gè)最大或最小元素,是一個(gè)重要的機(jī)器學(xué)習(xí)模型組件,被廣泛用于信息檢索和數(shù)據(jù)挖掘中。)

然后它會根據(jù)問題來生成一些答案,答案數(shù)量N會大于K。

這些答案同時(shí)會帶有自己的證據(jù),即從網(wǎng)頁上搜索到的包含答案的文段。

接下來,系統(tǒng)會對這些答案進(jìn)行打分,最終輸出得分最高的答案。

在推理過程中,模型采樣會按照循環(huán)在文檔上不斷迭代,每個(gè)循環(huán)都會從單個(gè)文檔中盡可能多地顯示上下文內(nèi)容,然后對文本重新排序并返回給上一步。

此外,這個(gè)模型還會計(jì)算最終生成答案的質(zhì)量,如果生成答案太差,它就會選擇不回答。

這是源于紅牛的廣告語:“它會給你翅膀”。

在ELI5Filtered數(shù)據(jù)集上回答70%的問題時(shí),正確率為80%左右。

DeepMind表示這種訓(xùn)練模式和LaMDA有些類似。

LaMDA是谷歌在去年I/O大會上發(fā)布的一個(gè)對話模型,它能夠在“聽懂”人類指令的基礎(chǔ)上,對答如流并保證邏輯、事實(shí)正確。

不同的是,LaMDA有時(shí)會直接給人分享問題的相關(guān)鏈接,而GopherCite可以直接摘出相關(guān)論據(jù)文段。

另外,OpenAI最近也開發(fā)了一個(gè)網(wǎng)頁版GPT (WebGPT),同樣也是用類似的方法來校正GPT-3。

DeepMind表示,WebGPT是通過多次訪問網(wǎng)頁來組織答案,GopherCite則是側(cè)重于讀取長文段。

還是會有失誤

雖然懂得援引資料了,但是GopherCite有時(shí)還是會生搬硬套。

比如當(dāng)你問它“喝了紅牛會怎么樣?”,它的回答是“翅膀”。

這是源于紅牛的廣告語:“它會給你翅膀”。

顯然讓它理解比喻還是有點(diǎn)困難……

也有網(wǎng)友吐槽說,可能人類自己去谷歌搜索會更快。

你覺得呢?

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2016-12-02 20:10:22

人工智能唇語序列

2025-10-15 08:44:37

AI模型數(shù)據(jù)

2022-06-28 14:01:42

MITOpenAI預(yù)訓(xùn)練模型

2018-11-14 10:01:30

谷歌開源機(jī)器學(xué)習(xí)

2010-05-10 14:11:41

負(fù)載均衡算法

2010-05-25 17:57:24

VoIP網(wǎng)絡(luò)電話

2024-04-01 07:00:00

模型AI

2011-01-24 15:46:30

金山網(wǎng)絡(luò)T盤T盤

2021-06-10 14:05:47

AI 芯片人工智能

2023-05-09 08:25:26

Gaussdb數(shù)據(jù)庫開源數(shù)據(jù)庫

2018-05-09 13:22:40

谷歌開發(fā)者大會新品兩點(diǎn)

2022-06-23 11:54:35

AI智能代碼

2025-06-23 15:22:21

斯坦福不等式AI

2019-10-22 15:19:27

AI 數(shù)據(jù)人工智能

2010-03-16 10:45:37

家庭無線WLAN技術(shù)

2010-04-01 16:18:55

無線上網(wǎng)卡流量

2025-01-26 09:45:00

2020-02-06 15:20:21

編程語言PythonJava

2023-06-28 13:49:12

AI人工智能

2023-02-08 09:02:05

VS Code摸魚神器
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號