汪軍教授組織了7位AI學(xué)者,論道ChatGPT后的通用人工智能理論和應(yīng)用
ChatGPT 的走紅再次掀起人們對人工智能的關(guān)注,那么在 ChatGPT 之后,人工智能將會(huì)如何發(fā)展?業(yè)內(nèi)及 ChatGPT 的母公司 OpenAI 都認(rèn)為 AGI 將是未來人工智能的發(fā)展方向。
AGI 理論研究和應(yīng)用實(shí)踐將可以從哪些方面出發(fā)?【ChatGPT 和大模型春季課程】最后一場話題討論對此進(jìn)行了解答,來自 UCL、人大、華為、清華、中科院、上交大、南大、利物浦大學(xué)的學(xué)者專家共聚一堂,探討 “ChatGPT 后的通用人工智能理論和應(yīng)用”。
以下是圓桌討論內(nèi)容的亮點(diǎn)整理。
Topic 1:我們以前一直向往通用人工智能,不需要為了任務(wù)設(shè)計(jì)算法對機(jī)器訓(xùn)練。ChatGPT 是不是給我們帶來了這樣的可能性,近幾年可能實(shí)現(xiàn)這樣的夢想嗎?
劉群:一開始,我對 “通用人工智能” 這個(gè)詞是有點(diǎn)反感的,因?yàn)槲依斫膺@是比較科幻的說法,感覺不太靠譜。所以我以前不太愿意回答有關(guān)這個(gè)概念的問題。但最近看來,這個(gè)詞還挺合理的。它不是科幻性質(zhì)的,現(xiàn)在的人工智能模型越來越通用,原來只能處理一些小問題或單一問題,現(xiàn)在 ChatGPT 基本可以處理各類問題,我感覺通用人工智能這個(gè)詞還是挺合適的。
通用人工智能是否將要實(shí)現(xiàn),我也不敢判斷,但一定程度上,通用的自然語言處理是實(shí)現(xiàn)了。自然語言領(lǐng)域,解決任何一個(gè)小問題都是很復(fù)雜的,如機(jī)器翻譯、情感分析、中文分詞,它總是牽扯到所有東西,因?yàn)樵~都是文本和符號。任何小的方向,要做好,必須理解整個(gè)語言系統(tǒng)。所以 ChatGPT 在語言上的功能實(shí)現(xiàn)是很厲害的,尤其是 discourse 能力。因?yàn)?discourse 是自然語言里非常深層次和難解決的問題。ChatGPT 很好地學(xué)到了人類交流過程中的篇章結(jié)構(gòu),包括寫文章的套路和話術(shù),這是非常抽象的一種邏輯和組織文章的方式。還有一些最近的例子是它能模擬人講話,代入某個(gè)角色,這是個(gè)嵌套結(jié)構(gòu)的自然語言處理,它是一個(gè)堆棧,像 ChatGPT 對話題的轉(zhuǎn)換,跳進(jìn)跳出非常好,不會(huì)亂。
汪軍:如果從機(jī)器學(xué)習(xí)里面來看,它的目標(biāo)方程很簡單,第一是對前面幾個(gè)字預(yù)測下面一個(gè)字;第二是這段話回答出來是否跟人相似?這兩個(gè)非常簡單的目標(biāo),他為什么能學(xué)出這種感覺需要很多邏輯和提前設(shè)計(jì)的東西呢?
劉群:達(dá)到目標(biāo)要很好地涉及到所用的復(fù)雜知識,知識掌握得越好越深,預(yù)測便越好。所以雖然目標(biāo)簡單,但要達(dá)到目標(biāo)的手段可以無窮復(fù)雜。所以要做好,需要非常強(qiáng)大的模型和大量的數(shù)據(jù)。
黃民烈:過去在中國大家一般不太敢說 AGI 概念,甚至 AGI 定義都不太清楚。所以我們有時(shí)會(huì)調(diào)侃說中國的科學(xué)家不敢有夢想,因?yàn)橹灰f AGI 都會(huì)被噴死。國外的科學(xué)家確實(shí)還是非常有情懷,像 MIT 的教授 1966 年用 AI 對話系統(tǒng)做聊天機(jī)器人,心理治療機(jī)器人,我覺得這是很難的一件事,他們敢想敢做,值得我們學(xué)習(xí)。
回到這個(gè)問題,我們現(xiàn)在離 AGI 有多遠(yuǎn)?我覺得在普遍意義上還挺遠(yuǎn),ChatGPT 現(xiàn)在體現(xiàn)出來的智能水平還是在發(fā)展 AGI 的過程中,但我們不太敢想的事情已經(jīng)有一點(diǎn)樣子了。所以我覺得可能換一個(gè)提法會(huì)更好:我們不要討論在廣泛意義上它是否達(dá)到 AGI 的能力,因?yàn)閺膹V泛意義上來講,我們可能還要有各種各樣的自主思考和泛化能力,但在今天我們看到的情況是,它確實(shí)在整體智能水平上已經(jīng)不是任何過往一個(gè) AI 能達(dá)到的。它的技術(shù)路線也很不一樣,像 IBM Watson 做的 DeepQA 技術(shù)完全是傳統(tǒng)和經(jīng)典路線。這種語義分析的理解套路是要把一個(gè)句子的語法、句法結(jié)構(gòu)分析很清晰,它代表了另一派學(xué)術(shù)思想。
但今天來看,ChatGPT 不僅是數(shù)據(jù),更是數(shù)據(jù)和模型體現(xiàn)出來的威力,以及模型本身能夠涌現(xiàn)出來的能力。所以我覺得未來它是不是通向 AGI 的一條正確道路?不同人不同觀點(diǎn),我覺得是值得嘗試的一個(gè)方向,但不是唯一的方向。這是我的一個(gè)主要觀點(diǎn):它怎么習(xí)得的,其實(shí)也不完全是數(shù)據(jù)加模型的暴力美學(xué),它還是體現(xiàn)了很多模型算法的設(shè)計(jì),尤其是跟人類數(shù)據(jù)的對齊。OpenAI 很多細(xì)節(jié)沒有披露,但我猜測它內(nèi)部有很多精細(xì)的數(shù)據(jù)處理?,F(xiàn)在看到的好像是簡單地對數(shù)據(jù)上手,但其實(shí)可能還沒有那么簡單。
方蒙:ChatGPT 確實(shí)非常強(qiáng)大,最近我讓它寫代碼,拿它寫的代碼直接去運(yùn)行時(shí),發(fā)現(xiàn)它出現(xiàn)一個(gè) bug。我直接把這個(gè) bug 的信息拷貝過來,讓 ChatGPT 處理,它又給了我推薦一個(gè)函數(shù)和代碼。但該函數(shù)已經(jīng)在版本更新中被棄用了,我根據(jù)推薦的函數(shù)很快查到了它的更新,解決了我的問題。我在想,實(shí)際上一般人并不會(huì)專門學(xué)習(xí)代碼,但我們需要交流。而 ChatGPT 確實(shí)在很多 NLP 任務(wù)上處理得很好,幾乎考慮了大部分的 NLP 任務(wù),似乎是一個(gè)萬能 AI。但 OpenAI 公布的模型是基于 2021 年以前的數(shù)據(jù)學(xué)習(xí)的,對新知識無法處理。如果單純從 NLP 角度來講,它確實(shí)好像是一個(gè) AGI 模型,它能處理好大部分的 NLP 研究的問題。未來我們要做 NLP 的科研肯定會(huì)創(chuàng)造出很多新問題,探索新東西。如果有一天 ChatGPT 也能做類似事情,自己創(chuàng)造新問題,而不是處理已有的問題。我相信這可能更靠近通用人工智能,因?yàn)樗茏约寒a(chǎn)生新東西。我認(rèn)為他現(xiàn)在習(xí)得的技能還是基于過去海量的數(shù)據(jù),它的模型訓(xùn)練算力大,工程精細(xì)。但它可能只是一條路,有可能還有別的路。所以我們也可以去探索一下別的路。
另外,我也在想另一個(gè)問題,如果讓它學(xué) 2022 年的數(shù)據(jù),我們需要對它訓(xùn)練多久?是否能像人一樣學(xué)習(xí)?或者學(xué)得更快更好?這些可能也是通用人工智能的要點(diǎn)之一?,F(xiàn)在 OpenAI 公開使用的模型還沒到這個(gè)程度,然而它確實(shí)很強(qiáng)大,這已經(jīng)邁出了重要一步。
Topic 2:ChatGPT 的不足地方是什么?從機(jī)器學(xué)習(xí)角度來,它還有哪些方面可以改進(jìn)以達(dá)到我們所希望的?或者它的能力邊界是什么?
文繼榮:不足明顯還是有一些。第一,ChatGPT 的知識實(shí)時(shí)性不足,語言模型從海量數(shù)據(jù)中學(xué)習(xí)到的既有知識也有能力,二者是統(tǒng)一的,像人類大腦一樣進(jìn)行表達(dá)。但這些知識是在訓(xùn)練時(shí)已固定下來,所以會(huì)出現(xiàn)如 2021 年 9 月以后的新數(shù)據(jù)放進(jìn)去學(xué)習(xí)的情況。把新東西加進(jìn)去,要重新訓(xùn)練,成本很高,現(xiàn)在基本不太行。因此 ChatGPT 和 Bing 進(jìn)行了集成,可以在最新網(wǎng)絡(luò)數(shù)據(jù)上,把檢索結(jié)果和內(nèi)容生成結(jié)合。結(jié)合以后,可能很好解決 ChatGPT 知識實(shí)時(shí)性和正確性問題。但我個(gè)人認(rèn)為這件事目前還是一個(gè)開始,非常值得深入研究。大模型里的數(shù)據(jù)是靜態(tài)的,整個(gè)互聯(lián)網(wǎng)或外部知識是動(dòng)態(tài)的,當(dāng)用模型生成結(jié)果時(shí),怎么把模型內(nèi)部的知識和外面的知識結(jié)合產(chǎn)生結(jié)果。這個(gè)問題現(xiàn)在還沒有很好的答案,但如果做好了,意義非常重大。因?yàn)槲覀儾荒芸偸侵匦掠?xùn)練模型,我們需要有一個(gè)穩(wěn)定的基礎(chǔ)模型,當(dāng)更多的動(dòng)態(tài)數(shù)據(jù)或?qū)I(yè)領(lǐng)域知識進(jìn)來時(shí),把它結(jié)合完成生成或推理工作。第二,我過去兩年多一直在做多模態(tài)大模型,大家看 GPT-4 已經(jīng)有一些多模態(tài),令人印象深刻。再繼續(xù)往前,我覺得還需要進(jìn)一步去研究多個(gè)模態(tài)間怎么能很好一起做生成和推理等的工作。這是目前還需努力的。第三,我認(rèn)為大模型目前最大的問題是成本太高,據(jù)說要到幾百億和千億的規(guī)模才能有涌現(xiàn)能力,這件事情其實(shí)把科研界的路堵死了。如果我們手里沒有 ChatGPT 這樣規(guī)模的模型,是不是研究就做不了?如果我們將來沒法在適中的模型上達(dá)到比較高的能力或性能,我們后面的科研會(huì)非常艱難。最近 NLP 領(lǐng)域受影響很大,其實(shí)信息檢索受到的影響也很大,做傳統(tǒng) ranking 這樣的工作已經(jīng)沒有意義?,F(xiàn)在 Bing 已經(jīng)是對話式搜索,馬上對話式推薦也會(huì)來臨。不知不覺中,可能 information retrieval 都會(huì)變成叫 information generation 了,領(lǐng)域都要改名。現(xiàn)在正發(fā)生天翻地覆的變化。希望未來在研究平臺這方面有一些突破,如何在一個(gè)有限規(guī)模的模型上,同樣呈現(xiàn)今天 ChatGPT 或 GPT-4 的模型能力是很重要的。
汪軍:我想插其中一個(gè)解決方案,學(xué)術(shù)界的開源可能是必經(jīng)之路了。大模型開源出來,可能至少在預(yù)訓(xùn)練模型,我們再去調(diào)整它,或者這個(gè)方向可以做一些科研工作。工業(yè)界去把構(gòu)架弄出來,開源推動(dòng)它更多地使用。下面有幾個(gè)問題問李老師,雖然 ChatGPT 還有一些各種各樣的缺陷,那李老師怎么看從研究人腦到跳躍到人工智能,我們何時(shí)能到所謂的 AI 超過人呢?
李澄宇:剛我在聽講的時(shí)候,腦里想得最多的是 “演化”,為什么?因?yàn)槿斯ぶ悄苁菑?1960 年代開始做,到現(xiàn)在它演化非??焖伲且粋€(gè)指數(shù)式的演化過程。而我們剛才說到 AGI,其實(shí)宇宙中已存在,AGI 就在人腦,它是一個(gè)物理實(shí)體和大網(wǎng)絡(luò),可以做很多事,所以人本身有 AGI。我們的大腦本身是一個(gè)有通用能力的網(wǎng)絡(luò),所以理論上不管是生物還是人工的神經(jīng)網(wǎng)絡(luò),它能夠做很多事。因?yàn)槿斯ぶ悄鼙ㄊ降闹笖?shù)增長,所以產(chǎn)生像 GPT4 這樣的革命性進(jìn)展,它類比了人的生物腦的演化結(jié)果。人類大腦是在所有生物里神紀(jì)元的數(shù)量占身體比重最大的?,F(xiàn)在鼠腦大概是 7000 萬個(gè)神經(jīng)元,猴腦大概是 60 億個(gè),人腦大概 800 億到 1000 億的數(shù)量級,這也是一個(gè)指數(shù)增長。所以從這個(gè)角度講,GPT 演化的革命是很令人興奮的。我個(gè)人把它看成是很重要的機(jī)遇,讓我們這些做神經(jīng)科學(xué)和腦科學(xué)的可以思考生物腦和人工腦之間的關(guān)系。
另外,從腦的機(jī)制層面,我覺得有很多有意思的可以討論。剛才說到大模型在 2021 年結(jié)束后,不能進(jìn)行連續(xù)學(xué)習(xí)的問題。但我們的人腦顯然是有連續(xù)學(xué)習(xí)能力的,我們不會(huì)在某一個(gè)時(shí)間點(diǎn)以后不學(xué)了。但有意思的是我們腦內(nèi)存在一些腦組織和區(qū)域控制著這個(gè)能力。一個(gè)例子是海馬區(qū) H.M 案例,醫(yī)生把癲癇病人的海馬體摘除后,他的長期記憶停在了做手術(shù)的時(shí)刻,之后他學(xué)不會(huì)新事實(shí)。這個(gè)例子和我們現(xiàn)在討論的問題有點(diǎn)像,大模型的連續(xù)學(xué)習(xí)能力也許還沒從生物腦中借鑒過來,所以我覺得這是一個(gè)機(jī)遇。神經(jīng)科學(xué)應(yīng)該和各位多交流,看怎么樣把生物腦具有連續(xù)學(xué)習(xí)能力的機(jī)理抽離出來幫助設(shè)計(jì)新的人工智能神經(jīng)網(wǎng)絡(luò)。我想這是共同演化的過程,這個(gè)過程也會(huì)幫助我們?nèi)ダ斫馍锬X是怎么實(shí)現(xiàn)連續(xù)學(xué)習(xí)的。我們以前并沒把這個(gè)問題看得很重要,但我現(xiàn)在覺得它是讓我們持續(xù)地面對新挑戰(zhàn)的重要事情。
我們現(xiàn)在正在做圖譜研究,這是一個(gè)非常基礎(chǔ)的研究,要搞清楚腦子里是有哪些類型的細(xì)胞,細(xì)胞間是怎么連接的,生物腦領(lǐng)域還不清楚這個(gè)問題, 但 AI 網(wǎng)絡(luò)里很清楚每個(gè)神經(jīng)元之間的連接,所以現(xiàn)在研究過程之中,我們與華大基因和華中科農(nóng)業(yè)大學(xué)等研究機(jī)構(gòu)一塊做,發(fā)現(xiàn)不同的物種演化過程中,六種物種的海馬變化非常大,有很多新類型的神經(jīng)元出現(xiàn),也有很多新腦區(qū)。在海馬腦區(qū)里出現(xiàn)很多新亞區(qū),我們研究了烏龜、鳥、小鼠、猴到人,這個(gè)過程里,人的行為能力不斷增大。所以我想這種行為的復(fù)雜性和能力與海馬腦區(qū)新細(xì)胞的出現(xiàn),是對應(yīng)的。我們在學(xué)習(xí)這些新細(xì)胞。
我想講未來我們能夠做什么,我感覺這里面可做事是非常多的。我們也在改變我們的研究方向?,F(xiàn)在我覺得我們可以從鼠和猴的研究里抽取一些原理供人腦,可以低功耗地實(shí)現(xiàn)比較復(fù)雜的功能。雖然柯潔下棋下不過 AlphaGo,但柯潔只要每天吃幾個(gè)面包和饅頭就可以了,能耗是極低的,對智能體的要求也將走向這個(gè)方向,但人工智能 chat GPT 還不能解決這個(gè)問題,所以未來還需要從生物體借鑒,產(chǎn)生一個(gè)更低能耗的物理智能體。
未來需要把感知、認(rèn)知和運(yùn)動(dòng)整合到一起,現(xiàn)在這種形式是不太能夠控制一個(gè)機(jī)器人走來走去的,但我想未來可能至少要產(chǎn)生把感知領(lǐng)域解決。我們解 Chat GPT 或者 GPT4 是解決認(rèn)知問題,未來還要連接到運(yùn)動(dòng)控制,我知道很多現(xiàn)在基于 transformer 的運(yùn)動(dòng)控制機(jī)器手和機(jī)械臂在不斷發(fā)展。如果感知、認(rèn)知、運(yùn)動(dòng)整合到一體后,每一單獨(dú)的模塊都能融合起來,像大家提到跨領(lǐng)域的融合,我覺得未來這是一個(gè)很重要的點(diǎn)。在人工智能發(fā)展的過程里,我希望腦科學(xué)可以和大家一塊來做些更有意思的事情。
汪軍:想問一下李老師人腦那么復(fù)雜,進(jìn)化了那么多年,但是大腦沒有獎(jiǎng)勵(lì)函數(shù),也沒有 inductive BIAS 的。但我們做機(jī)器學(xué)習(xí)時(shí),要給它一定的先驗(yàn)的知識或者假設(shè)。如果沒有先驗(yàn)知識或假設(shè),它是沒法進(jìn)行任何預(yù)測的。機(jī)器學(xué)習(xí)里,現(xiàn)在我們雖然講通用人工智能,但是現(xiàn)在還沒能把這兩個(gè)前提去掉,但反觀人的大腦,是不是沒有獎(jiǎng)勵(lì)機(jī)制,也沒有先驗(yàn)知識,為什么能生成現(xiàn)在智慧?但現(xiàn)在的技術(shù)卻達(dá)不到。李老師怎么看?AI 專家怎么看?是否需要獎(jiǎng)勵(lì)機(jī)制和先驗(yàn)知識?
李澄宇:我先拋磚引玉。第一,關(guān)于演化的過程有沒有獎(jiǎng)勵(lì)機(jī)制,我認(rèn)為是有的, 99% 以上的生物全都滅絕了,這個(gè)滅絕就是懲罰,但生物還存在的是獎(jiǎng)勵(lì),所以從這點(diǎn)來說,物種和個(gè)體都是有獎(jiǎng)勵(lì)機(jī)制的。每個(gè)體都有獎(jiǎng)勵(lì)和懲罰,這些過程可以改變我們腦的結(jié)構(gòu)和功能。所以,我認(rèn)為獎(jiǎng)勵(lì)在生物演化里肯定是存在的。第二是您剛才說的 BIAS,其實(shí)生物體也是有 BIAS 的,生下來的小孩是有認(rèn)知的,比如東西松手要掉下來等物理界的基本原理,我們把它叫做 BIAS,這是在腦子里存在著的,我們生下來時(shí),神經(jīng)網(wǎng)絡(luò)已經(jīng)過長期的進(jìn)化,有對外界物理和人社會(huì)行為的一定 BIAS 在里面,包括對特定面孔的感興趣。而機(jī)器學(xué)習(xí)不一樣,需要人在外部換個(gè)角度,讓人工智能連不同的代理去下棋,他們自己會(huì)生成一個(gè)自己不同的代際,可以把上一代作為它的 BIAS。我想這似乎是必然要存在的。當(dāng)個(gè)體一直在某一任務(wù)態(tài)下時(shí),我想它的在競爭物種之間會(huì)延某個(gè)特定的軌跡往前走,這個(gè)軌跡被物理實(shí)體所限定了框架。這個(gè)框架下必然依賴于它現(xiàn)有的邊界,有 BIAS 才能讓它比較快速地去獲勝。
汪軍:想問下讓 AI 擁有自驅(qū)能力,它何時(shí)可以有個(gè)自我概念,可以自己往前進(jìn)化,甚至意識。這個(gè)意識是人類獨(dú)有的,這種現(xiàn)象目前 ChatGPT 也在做,它是不是有意識,能否知道別人的想法,但實(shí)際上它還只是停留在文字表列。甚至在文字表單上,它不一定百分百能抓住這個(gè)事情。我不知道大家怎么看這個(gè)事情,AGI 里如果不是有自我和有意識,是不是有獎(jiǎng)勵(lì)函數(shù),那這是外面給它的還是它自己能產(chǎn)生的?
劉群:我稍微說一點(diǎn)我的理解。剛才李老師說生存是最終極的獎(jiǎng)勵(lì),我非常贊成這一點(diǎn),實(shí)際上人類生物的終極獎(jiǎng)勵(lì)是生存,它一切目的都是為了生存。但我們?nèi)嗽谏钪校視?huì)感覺到我們不是一切為了生存,但實(shí)際上這些都是一種生存壓力最終轉(zhuǎn)換成的。另外一種形式體現(xiàn)出來是獎(jiǎng)勵(lì)。它看上去不是為了生,但實(shí)際上它歸根結(jié)底是為了生存。所以我相信現(xiàn)在的 AI 很難生成自我演化,因?yàn)樗鼪]有生存壓力。假設(shè)把它放到荒野上,給它算力的限制,除非造出一個(gè)環(huán)境讓它自己競爭,也許哪天會(huì)出把別人的電源線摘掉和保護(hù)自己的電源線。
李澄宇:意識問題顯然是一個(gè)非常重要但沒有解決的問題,但現(xiàn)在不是不可研究,在意識領(lǐng)域有很多比如有趣的一個(gè)研究方式給出弱視覺刺激,試驗(yàn)人報(bào)告有時(shí)能看見,有時(shí)看不見,可以認(rèn)為是意識沒匯報(bào)出能看見,這時(shí)比較腦子里的活動(dòng)有很大差別。也許可以用這類游戲類給 chatGPT 或其他人工智能網(wǎng)絡(luò)測試,測試他們有沒有像人一樣的意識表現(xiàn)。這個(gè)領(lǐng)域里其實(shí)有很多爭論,現(xiàn)在肯定是沒有答案的。我覺得可以去合作去做,因?yàn)槲覀冊谏锷峡梢宰鲞@方面的研究。給猴子 50% 看得見, 50% 看不見的刺激,看它的腦部活動(dòng),對比 AI 網(wǎng)絡(luò)。
Topic 3:決策智能:我們現(xiàn)在的機(jī)器人可以看,可以讀,但是沒法走路,我們怎么能讓它走起來?
俞揚(yáng):ChatGPT 或 GPT 的最近爆發(fā),我雖然在強(qiáng)化學(xué)習(xí)決策領(lǐng)域,也感到很大的觸動(dòng)。在這個(gè)領(lǐng)域中,也在進(jìn)行一些大模型的研究。但比較幸運(yùn)的是,目前還沒有出現(xiàn)任何可以替代或碾壓強(qiáng)化學(xué)習(xí)的模型。這也表明了一個(gè)事實(shí),現(xiàn)有的 GPT 模型和人類的生物智能相比,還有很大的差距。具體來說,ChatGPT 缺少 world model 這一部分。目前的 GPT 模型中沒有 working memory,只有 context 和 prompt 的輸入。在強(qiáng)化學(xué)習(xí)的研究中,我們發(fā)現(xiàn)這種 context 具有一定的記憶能力,即可以識別和記憶過去所做的行為、其帶來的結(jié)果以及世界的反應(yīng)。但這種記憶能力可能并不強(qiáng),因?yàn)樗皇蔷€性的順序排列,沒有專門的地方來儲(chǔ)存它。這與李老師之前提到的,生物體內(nèi)的海馬體對我們的短期記憶非常重要不一樣。最近我們也閱讀了有關(guān)生物方面的論文,發(fā)現(xiàn)其中有很多有趣的內(nèi)容。海馬體和 world model 之間存在著非常緊密的聯(lián)系,但這是 GPT 模型所沒有的。GPT 模型不會(huì)做夢。我們看到老鼠做夢時(shí),它的海馬體會(huì)回放它在白天遇到的事情,這實(shí)際上是 world model 的一個(gè)非常典型的表現(xiàn)。老鼠的身體沒有動(dòng),但它的大腦在活動(dòng)。它所看到的所有數(shù)據(jù)在它的大腦中回放,而且根據(jù)可視化的結(jié)果,它并不是按照時(shí)間順序排列,而是倒過來放,從終點(diǎn)又回到起點(diǎn),這與強(qiáng)化學(xué)習(xí)中的數(shù)據(jù)回放 replay memory 非常相似。因此,從這個(gè)角度來看,目前的 GPT 模型在功能上還不夠完備。簡單來說,它今天可能仍然只是一個(gè)所謂的聯(lián)合概率估計(jì)模型。我們從老鼠的海馬體中看到,當(dāng)老鼠面對十字路口時(shí),它的海馬體會(huì)同時(shí)出現(xiàn)往左和往右的情況,這是它進(jìn)行推理所需的腦區(qū)之一。目前的 GPT 模型還沒有達(dá)到這個(gè)水平,因此我認(rèn)為,為了做出更好的決策,GPT 模型需要進(jìn)一步優(yōu)化。如果它希望做出超越人類的決策,可能需要在底層結(jié)構(gòu)上進(jìn)一步改進(jìn)。
雖然今天的大型模型有著很廣泛的知識面,但在許多專業(yè)領(lǐng)域中,大型模型仍然不能完全掌握。在這些領(lǐng)域中,有很多數(shù)據(jù)不是公開的或者不是以語言形式存在的,可能是商業(yè)數(shù)據(jù)或醫(yī)療數(shù)據(jù),屬于隱私性數(shù)據(jù)。因此,在這些領(lǐng)域中,我們?nèi)匀粫?huì)看到很多小型數(shù)據(jù)處理,小型數(shù)據(jù)并沒有消失。我認(rèn)為這是非常重要的一點(diǎn)。它們的關(guān)系,可能大型模型可以幫助我們處理總體性的問題,但對于小型領(lǐng)域的數(shù)據(jù)分析,特別是涉及決策的領(lǐng)域,我們發(fā)現(xiàn)許多領(lǐng)域中都存在小型數(shù)據(jù)和封閉數(shù)據(jù),因此我們無法使用大型模型來解決這些問題。我們認(rèn)為小型模型也值得關(guān)注,特別是當(dāng)大型模型變得越來越好時(shí),在專有領(lǐng)域中使用小型模型的應(yīng)用可能會(huì)受到更多研究者的關(guān)注。
張偉楠:我想從反饋路徑角度說,feedback 是 Richard Sutton 在教科書《強(qiáng)化學(xué)習(xí)》的前沿部分說過,我們?nèi)艘簧聛恚鋵?shí)不斷地在和環(huán)境交互,從感知的信息做控制并獲取反饋,在此閉環(huán)中不斷學(xué)習(xí)。反饋這件事,ChatGPT 當(dāng)中的 chat 其實(shí)是會(huì)得到一些回答,但是還會(huì)需要有的獎(jiǎng)勵(lì)函數(shù)。我們現(xiàn)在其實(shí)并沒有這樣的東西,它更多狀態(tài)轉(zhuǎn)移。但其實(shí)相關(guān)的獎(jiǎng)勵(lì)部分在 ChatGPT 中是沒有直接給出的,所以如果只是訓(xùn)練 ChatGPT ,其實(shí)基本上除了最后的人在環(huán)路的對齊以外,其他部分都是監(jiān)督學(xué)習(xí),也即是大部分情況下它還沒有用反饋的形式學(xué)習(xí)??梢栽O(shè)想,現(xiàn)在用 ChatGPT 去調(diào)用做決策的接口,像 ChatGPT for Robotics,可以發(fā)現(xiàn)它確實(shí)在一定程度上接入這些接口,能做出正確的決策,但這僅僅是在認(rèn)知能力上的延伸而已,并沒有在訓(xùn)練過程中調(diào)接口便能最大化獎(jiǎng)勵(lì)。如果把反饋鏈條閉環(huán),其實(shí)會(huì)帶來決策智能真正地往更優(yōu)的性能發(fā)展。最關(guān)鍵的點(diǎn)并不一定是設(shè)計(jì)細(xì)致的獎(jiǎng)勵(lì)函數(shù),而是它有沒有能力判定決策任務(wù)是否被成功完成。如果決策任務(wù)成功或者失敗的信號能反饋到 ChatGPT,其實(shí)這就形成一個(gè)閉環(huán)去不斷反饋,完全自發(fā)地完成決策任務(wù)。
Q & A 環(huán)節(jié)
Q1: 從多模態(tài)能力的實(shí)現(xiàn)來看,百度文心似乎是通過百度文本模型、對話模型和圖文等能力進(jìn)行了一種縫合。請問各位老師能否講解一下如何通過零散能力整合成一個(gè)多模態(tài)大模型?這與 GPT4 的多模態(tài)能力實(shí)現(xiàn)有什么區(qū)別?
張偉楠:首先第一我不知道文心它背后的設(shè)計(jì),但我感覺它很像以文本為主的,調(diào)用 API 去實(shí)現(xiàn)的多模態(tài)交互能力。如果讓百度文心大模型去產(chǎn)生一段語音,它有可能是先產(chǎn)生文本,再調(diào)用 API,讓它以某種方言語音播放出來。這其實(shí)是一種外延能力,但核心還是語言大模型和真正的多模態(tài)大模型間的區(qū)別。但這只是我的猜想,并不代表文心真正的實(shí)現(xiàn)是這樣子。
Q2: 未來更成熟的大模型與傳統(tǒng)機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等小模型的關(guān)系將會(huì)變得怎么樣?
俞揚(yáng):雖然今天的大模型有很寬泛的知識面,但是在很多專業(yè)領(lǐng)域里,大模型還不能完全掌握。依然有很多領(lǐng)域的數(shù)據(jù)不是公開的或數(shù)據(jù)不是語言式的,它可能是商業(yè)數(shù)據(jù)或醫(yī)療數(shù)據(jù),屬于隱私性的數(shù)據(jù),所以在這些領(lǐng)域里,我們可能看到的還是有很多小數(shù)據(jù)處理,小數(shù)據(jù)并沒有消失。我覺得這個(gè)是很重要的一點(diǎn),它的關(guān)系會(huì)是什么樣子?可能大模型能幫助我們?nèi)プ隹傮w的事情,但對于小領(lǐng)域的數(shù)據(jù)分析,特別是決策類的,我們發(fā)現(xiàn)好多領(lǐng)域里都是小數(shù)據(jù)和封閉數(shù)據(jù),所以沒有辦法用大模型來解決。所以我們覺得小模型也是值得關(guān)注的,特別是當(dāng)大模型變得很好后,是不是有更多研究者會(huì)關(guān)注小模型上在專有領(lǐng)域里的應(yīng)用。
Q3: 想請問一下劉老師,由于 ChatGPT 是生成模型,在實(shí)踐過程中經(jīng)常出現(xiàn)虛構(gòu)的新聞或論文引用,您如何看待這種現(xiàn)象,以及您認(rèn)為有什么可以改善的方式?
劉群:實(shí)際上對模型本身來說,它是無法區(qū)分事實(shí)和非事實(shí)的。從定義來說,可以認(rèn)為預(yù)訓(xùn)練數(shù)據(jù)里出現(xiàn)過的東西或判斷是事實(shí),如果沒有出現(xiàn)它則非事實(shí)。但模型在生成時(shí),它是不知道它都變成模型參數(shù)了。模型參數(shù)輸出的東西,有些符合預(yù)訓(xùn)練的數(shù)據(jù),有些不符合,這很常見的。所以模型本身,它無法區(qū)分。但是這個(gè)事情也不是完全不能改進(jìn),可以看到 GPT4 在事實(shí)性上有改進(jìn)。這是通過學(xué)習(xí),盡量減少非事實(shí),找到事實(shí)。但我覺得簡單地通過大模型現(xiàn)有的神經(jīng)網(wǎng)絡(luò)方式,是不太能夠徹底解決問題的。所以還是要去探索一些別的方法,用外在的判斷來解決。這個(gè)問題是個(gè)非常好的問題。
汪軍:這個(gè)問題其實(shí)也可以反過來看,為什么?虛構(gòu)可能也是好事。在某些情況下,讓它去寫賦詩或作文,希望它能有科幻元素,所以使得這個(gè)問題非常困難。到底是希望去找事實(shí),還是希望去構(gòu)想,的確比較模棱兩可,需要一個(gè)目標(biāo)才能夠搞定。
Q4:華為作為優(yōu)秀的 AI 工業(yè)代表,接下來會(huì)研發(fā)自己的 ChatGPT 嗎?基于現(xiàn)在的業(yè)務(wù),在大模型或多模態(tài)上會(huì)有什么布局?
劉群:首先華為一定會(huì)正面迎接挑戰(zhàn),我們在這方面也有很多積累,對于具體業(yè)務(wù)規(guī)劃布局我可能很難在這里講得太具體了,但大家可能注意到有一個(gè)任總的講話,提到有人問任總關(guān)于 ChatGPT 的問題,任總說 ChatGPT 我們不要僅看到它是一個(gè) NLP 或視覺的問題,實(shí)際上它潛力非常大,而且以后更大的潛力可能不是在簡單的表面上可能是 NLP 視覺的結(jié)合或多模態(tài)的問題。它可能在華為的各種各樣的業(yè)務(wù)中,80% 的應(yīng)用都會(huì)在一些大家可能沒有想象到的業(yè)務(wù)中。我覺得潛力是非常大的,華為一定會(huì)正面去迎接挑戰(zhàn),而且是發(fā)展自己這方面的能力。
Q5: 目前從神經(jīng)科學(xué)角度看, ChatGPT 系統(tǒng)還有什么方向可以嘗試讓它更加類似人的思維反饋?
李澄宇 :這個(gè)顯然是非常好的問題。腦科學(xué)和內(nèi)科學(xué)是非常分化的,大家意見都很不一樣。我只能代表個(gè)人意見,我覺得未來的通用人工智能可能是一個(gè)很重要的點(diǎn)。如果我旁邊站的一個(gè)實(shí)體,和我長得差不多,和我有差不多單智能,可以幫我解決問題。如果從這角度來講,現(xiàn)在的 ChatGPT 的形態(tài)可以有很多。它可以把一些運(yùn)動(dòng)加進(jìn)去,而且他需要連續(xù)學(xué)習(xí)他也需要有一定的自我意識。我覺得有自我意識以后,可以解決很多剛才說的這些 fake 的虛假新聞。還有剛才說的倫理,從最根本的數(shù)據(jù)來源上看,有倫理問題。因?yàn)槿澜?190 多個(gè)國家里,多數(shù)國家的文化是沒有反映在 ChatGPT 里的,我覺得從整體倫理角度,我們都需要有一個(gè)全新的角度思考,怎樣構(gòu)造更公平、更有效、更智能的智能體。RLCN 同學(xué)問的問題其實(shí)包含 Inductive BIAS。我覺得 Inductive BIAS 很重要,這種初始的認(rèn)知地圖和我剛剛說的智能、整體的運(yùn)動(dòng)、引導(dǎo)都有關(guān)系,這對生存也很重要。
Q6:GPT 大模型會(huì)不會(huì)顛覆已有的機(jī)器學(xué)習(xí)研究范式?后大模型時(shí)代,人工智能理論研究還重要嗎?
劉群:雖然我不是做理論的,但我認(rèn)為理論很重要,但我沒有想象出理論如何幫助我們現(xiàn)在的 AI 做得更好。但我希望理論幫忙回答一個(gè)問題,我們經(jīng)常說大模型涌現(xiàn),但涌現(xiàn)本身沒有什么太奇怪的,我覺得模型大了一定會(huì)涌現(xiàn)一些新能力,別說是大模型,正常的小孩長大了,比他原來的體重增加 10 倍,他能力肯定和原來不一樣,所以涌現(xiàn)我覺得很正常。但是有沒有哪個(gè)理論能精確預(yù)測一下各種能力必須在多大的模型和多大的數(shù)據(jù)上才能夠涌現(xiàn)出來?我很想知道這件事情,而且大模型到什么程度能夠涌現(xiàn)出怎樣的新能力?
方蒙:我覺得未來可能的研究方向是 GPT 表現(xiàn)了強(qiáng)大的邏輯推斷能力,我很想知道怎么才能證明這是真正的邏輯推斷能力,而不是說學(xué)很多數(shù)據(jù)后模仿出來的邏輯推斷。我也很好奇,要多少數(shù)據(jù)多大的模型才能涌現(xiàn)邏輯推斷能力。所以我覺得我們可以有一些經(jīng)驗(yàn)結(jié)果,但如果我們要正確答案,確實(shí)需要在理論方面做更多研究。
文繼榮:這個(gè)問題我覺得還挺好的,我自己覺得可以研究,現(xiàn)在 GPT4 或其他 GPT 大模型呈現(xiàn)出這么多認(rèn)知的能力,或類人的行為。將來是不是會(huì)出現(xiàn)一門科學(xué),比如叫數(shù)字大腦學(xué)?因?yàn)檫@個(gè)模型本身是我們的研究對象。我覺得研究大模型本身是非常有意義的,在這里研究發(fā)現(xiàn)的東西可以反過來對將來腦科學(xué)或認(rèn)知科學(xué)里有很多重要的啟示。
李澄宇:我覺得這是一個(gè)很好的問題,可以問一下 GPT4,原因是 Stan Dehaene 說意識里面有兩個(gè)核心的特質(zhì),選擇性處理和監(jiān)督,一是對輸入信息有全局性的選擇性處理,二是監(jiān)控自己的意識。所以從這個(gè)角度來講 ChatGPT 自身或它未來的后代能不能自己監(jiān)督自己的行為?這是理論層面可以去問的,也可以去構(gòu)建新的框架或網(wǎng)絡(luò)結(jié)構(gòu)產(chǎn)生這種能力。從這個(gè)角度講,也許理論框架可以幫助構(gòu)建新一代的人工智能。
汪軍:是的,而不只是 attention 知道能力邊界。比如 Transformer 現(xiàn)在的這種架構(gòu)能力邊界在哪里?什么事可以做,什么不可以做,它是不是有 working memory?反饋函數(shù)能力的邊界在哪里?有些東西它可以涌現(xiàn),有些東西它不可能涌現(xiàn)。這些的確要非常扎實(shí)的理論基礎(chǔ)來研究。還有 Inductive BIAS 的先驗(yàn)知識,首先 Transformer 的設(shè)計(jì),它本身是一個(gè)先驗(yàn)的知識,沒了先驗(yàn)知識是否可以做成?我覺得這些問題都是非常的需要理論研究的,如果沒有指引方向,大家成了無頭蒼蠅。