麻省理工科技評(píng)論:六個(gè)問(wèn)題將決定生成式人工智能的未來(lái)
“生成式人工智能在 2023 年席卷全球。它的未來(lái)以及我們的未來(lái)將取決于我們下一步的行動(dòng)?!?/span>
麻省理工科技評(píng)論的人工智能高級(jí)編輯Will Douglas Heaven近日發(fā)布文章《These six questions will dictate the future of generative AI》,介紹了生成式人工智能(generative AI)在2023年的發(fā)展和影響,以及未來(lái)面臨的六個(gè)關(guān)鍵問(wèn)題。這篇文章是一篇很有價(jià)值的科技評(píng)論,它對(duì)生成式人工智能的現(xiàn)狀和未來(lái)進(jìn)行了全面和深入的探討,提出了一些重要的問(wèn)題和建議。
生成式人工智能(Generative AI)是能夠自動(dòng)創(chuàng)造出新的內(nèi)容和產(chǎn)品的人工智能技術(shù),它利用了深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、自然語(yǔ)言處理等先進(jìn)的算法和模型,能夠模仿和超越人類(lèi)的創(chuàng)造力和智慧。生成式人工智能已經(jīng)在各個(gè)領(lǐng)域展現(xiàn)了驚人的能力和潛力,比如音樂(lè)、藝術(shù)、文學(xué)、設(shè)計(jì)、游戲、醫(yī)療、教育、商業(yè)等,它為人們提供了更多的便利和樂(lè)趣,也為社會(huì)帶來(lái)了更多的價(jià)值和創(chuàng)新。
生成式人工智能面臨著許多的挑戰(zhàn)和問(wèn)題,比如數(shù)據(jù)的質(zhì)量和來(lái)源,模型的可靠性和可解釋性,以及倫理和法律的約束和保護(hù)。這些問(wèn)題不僅影響著生成式人工智能的發(fā)展和應(yīng)用,也關(guān)系到人類(lèi)的利益和未來(lái)。因此,我們需要對(duì)生成式人工智能有一個(gè)全面和深入的了解,探討它的優(yōu)勢(shì)和劣勢(shì),分析它的機(jī)遇和風(fēng)險(xiǎn),制定合理的規(guī)則和標(biāo)準(zhǔn),以確保它的負(fù)責(zé)任使用和可持續(xù)發(fā)展。
01 我們會(huì)讓生成式人工智能減輕偏見(jiàn)的問(wèn)題嗎?
文章首先指出,生成式人工智能中的偏見(jiàn)是由于使用了反映了社會(huì)歧視的真實(shí)數(shù)據(jù)來(lái)訓(xùn)練模型,導(dǎo)致模型在生成內(nèi)容時(shí)也會(huì)重現(xiàn)和加劇這些歧視,比如在聊天機(jī)器人、圖像生成器、面部識(shí)別、招聘算法等方面。要從根本上解決偏見(jiàn)問(wèn)題,需要新的數(shù)據(jù)集或新的訓(xùn)練方法,但這些都需要很長(zhǎng)的時(shí)間和工作。文章介紹了一些目前的研究方向,比如使用人類(lèi)反饋的強(qiáng)化學(xué)習(xí)、使用合成數(shù)據(jù)集、使用多樣化和跨領(lǐng)域的數(shù)據(jù)等,來(lái)減少生成式人工智能中的偏見(jiàn)。
偏見(jiàn)已經(jīng)成了人工智能帶來(lái)的傷害的代名詞,這是有道理的?,F(xiàn)實(shí)中的數(shù)據(jù),特別是從網(wǎng)上抓取的文本和圖片,都充滿(mǎn)了偏見(jiàn),從性別刻板印象到種族歧視。用這些數(shù)據(jù)訓(xùn)練的模型就會(huì)學(xué)習(xí)這些偏見(jiàn),然后在使用的時(shí)候又會(huì)加強(qiáng)這些偏見(jiàn)。
聊天機(jī)器人和圖像生成器往往把工程師描繪成白人男性,護(hù)士描繪成白人女性。黑人有被警察部門(mén)的面部識(shí)別程序誤認(rèn)的風(fēng)險(xiǎn),導(dǎo)致被錯(cuò)誤逮捕。招聘算法偏向于男性而不是女性,使得原本想要解決的偏見(jiàn)更加深入。
如果沒(méi)有新的數(shù)據(jù)集或新的訓(xùn)練方法(這兩者都需要很多年的工作),偏見(jiàn)問(wèn)題的根源就會(huì)一直存在。但這并沒(méi)有阻止它成為研究的熱門(mén)話題。OpenAI就試圖用一些技術(shù),比如人類(lèi)反饋的強(qiáng)化學(xué)習(xí)(RLHF),來(lái)讓它的大型語(yǔ)言模型變得更少偏見(jiàn)。這樣就可以讓模型的輸出更接近人類(lèi)測(cè)試者喜歡的文本。
其他的技術(shù)涉及到使用合成數(shù)據(jù)集。比如Runway,一個(gè)為視頻制作提供生成模型的創(chuàng)業(yè)公司,就用一些合成數(shù)據(jù),比如人工生成的不同種族、性別、職業(yè)、年齡的人的圖片,來(lái)訓(xùn)練一個(gè)受歡迎的圖像生成模型Stable Diffusion的一個(gè)版本。這家公司報(bào)告說(shuō),用這個(gè)數(shù)據(jù)集訓(xùn)練的模型可以生成更多的深膚色的人和女性的圖片。如果請(qǐng)求一個(gè)商人的圖片,輸出就會(huì)包括戴頭巾的女性;如果請(qǐng)求一個(gè)醫(yī)生的圖片,輸出就會(huì)包括膚色和性別多樣的人。
批評(píng)者認(rèn)為這些解決方案只是在破損的基礎(chǔ)模型上貼上創(chuàng)可貼,掩蓋而不是修復(fù)問(wèn)題。但是Geoff Schaefer,Smith在Booz Allen Hamilton的同事,也是這家公司的人工智能責(zé)任主管,認(rèn)為這樣的算法偏見(jiàn)可以以一種有益的方式暴露社會(huì)偏見(jiàn)。
舉個(gè)例子,他指出,即使從數(shù)據(jù)集中刪除了關(guān)于種族的明確信息,種族偏見(jiàn)仍然可以影響數(shù)據(jù)驅(qū)動(dòng)的決策,因?yàn)榉N族可以從人們的地址推斷出來(lái),揭示了隔離和住房歧視的模式?!拔覀儼岩欢褦?shù)據(jù)放在一起,這種相關(guān)性就變得非常明顯,”他說(shuō)。
Schaefer認(rèn)為這一代的人工智能也會(huì)發(fā)生類(lèi)似的事情:“這些社會(huì)上的偏見(jiàn)都會(huì)顯現(xiàn)出來(lái)?!彼f(shuō),這將導(dǎo)致更有針對(duì)性的政策制定。
但是很多人會(huì)對(duì)這種樂(lè)觀態(tài)度感到不滿(mǎn)。問(wèn)題暴露出來(lái)并不意味著它一定會(huì)得到解決。政策制定者仍然在努力解決多年前就暴露出來(lái)的社會(huì)偏見(jiàn),比如在住房、招聘、貸款、警察等方面。與此同時(shí),個(gè)人還要承受后果。
偏見(jiàn)將繼續(xù)是大多數(shù)生成式人工智能模型的固有特征。但是通過(guò)一些變通方法和提高意識(shí),可以幫助政策制定者解決最明顯的例子。
02 人工智能將如何改變我們應(yīng)用版權(quán)的方式?
AI將如何改變我們對(duì)版權(quán)的運(yùn)用?許多藝術(shù)家和作家(還有編程人員)不滿(mǎn)科技公司未經(jīng)同意就從他們的作品中獲利,于是對(duì)OpenAI、微軟等公司提起集體訴訟,指控他們侵犯版權(quán)。Getty也起訴了Stability AI,這是一家制作圖像的公司,它的產(chǎn)品叫Stable Diffusion。
莎拉·西爾弗曼和喬治·R.R.馬丁等名人的訴訟引起了媒體的關(guān)注。這些案件將重新定義在美國(guó),什么算是對(duì)他人作品的合理使用,什么不算。但是別急著看結(jié)果。專(zhuān)門(mén)從事知識(shí)產(chǎn)權(quán)許可的律師事務(wù)所Gunderson Dettmer的合伙人凱蒂·加德納說(shuō),法院要做出最終判決還需要幾年時(shí)間。她說(shuō)到那時(shí),“這項(xiàng)技術(shù)已經(jīng)在經(jīng)濟(jì)中根深蒂固,無(wú)法逆轉(zhuǎn)?!?/span>
與此同時(shí),科技行業(yè)正以驚人的速度利用這些涉嫌侵權(quán)的技術(shù)。加德納說(shuō):“我不認(rèn)為公司會(huì)等著看?!薄半m然有一些法律風(fēng)險(xiǎn),但是如果不跟上,風(fēng)險(xiǎn)會(huì)更大。”
一些公司已經(jīng)采取措施,限制侵權(quán)的可能性。OpenAI和Meta聲稱(chēng)已經(jīng)推出了一種讓創(chuàng)作者從未來(lái)的數(shù)據(jù)集中刪除他們的作品的方法。OpenAI現(xiàn)在禁止DALL-E的用戶(hù)請(qǐng)求以活著的藝術(shù)家的風(fēng)格生成圖像。但是,加德納說(shuō),“這些都是為了支持他們?cè)谠V訟中的論點(diǎn)?!?/span>
谷歌、微軟和OpenAI現(xiàn)在提供保護(hù)他們的模型用戶(hù)免受潛在法律訴訟的服務(wù)。微軟的GitHub Copilot生成式編程助手,就是因?yàn)槭褂昧艘恍┸浖_(kāi)發(fā)者的代碼而被起訴的,它的賠償政策原則上會(huì)保護(hù)那些在法院審理期間使用它的人?!拔覀儠?huì)承擔(dān)這個(gè)負(fù)擔(dān),讓我們的產(chǎn)品用戶(hù)不用擔(dān)心,”微軟CEO薩提亞·納德拉告訴《麻省理工科技評(píng)論》。
與此同時(shí),新的許可協(xié)議也在出現(xiàn)。Shutterstock和OpenAI簽訂了一份為期六年的協(xié)議,允許后者使用其圖像。Adobe也聲稱(chēng),它自己的圖像生成模型Firefly,只使用了經(jīng)過(guò)許可的圖像,或者來(lái)自其Adobe Stock數(shù)據(jù)集的圖像,或者已經(jīng)不受版權(quán)保護(hù)的圖像。但是,一些Adobe Stock的貢獻(xiàn)者說(shuō),他們沒(méi)有被征求意見(jiàn),對(duì)此很不滿(mǎn)。
怨氣很大?,F(xiàn)在藝術(shù)家們用自己的技術(shù)反擊。有一種工具叫Nightshade,它可以讓用戶(hù)以一種人類(lèi)無(wú)法察覺(jué)的方式改變圖像,但是對(duì)機(jī)器學(xué)習(xí)模型卻是致命的,讓它們?cè)谟?xùn)練過(guò)程中錯(cuò)誤地分類(lèi)圖像。預(yù)計(jì)在線分享和重用媒體的規(guī)范會(huì)發(fā)生很大的調(diào)整。高調(diào)的訴訟仍將引起關(guān)注,但這不太可能阻止公司繼續(xù)開(kāi)發(fā)生成式模型。圍繞道德數(shù)據(jù)集的新市場(chǎng)將出現(xiàn),公司和創(chuàng)作者之間的貓鼠游戲也將展開(kāi)。
03 它將如何改變我們的工作?
生成式人工智能正在威脅我們的工作,不僅是藍(lán)領(lǐng),也包括白領(lǐng),比如數(shù)據(jù)分析師、醫(yī)生、律師和記者。生成式人工智能可以通過(guò)大型語(yǔ)言模型來(lái)完成一些需要高水平的考試、總結(jié)、寫(xiě)作等任務(wù)。但這并不意味著生成人工智能真的很聰明,也不意味著它們可以取代所有的專(zhuān)業(yè)角色。
Will Douglas Heaven在文章中介紹了一些使用生成人工智能的案例,比如波士頓咨詢(xún)集團(tuán)的顧問(wèn)實(shí)驗(yàn),Air Street Capital 的分析報(bào)告,以及Runway 的視頻制作。文章展示了生成式人工智能可以幫助工作人員提高效率、質(zhì)量、創(chuàng)新和滿(mǎn)意度。文章也提到了一些使用生成式人工智能的注意事項(xiàng),比如要避免過(guò)度依賴(lài)、要檢查錯(cuò)誤、要尊重版權(quán)等。
生成式人工智能對(duì)辦公桌工作以外的影響,比如圖像和視頻制作模型可以在不需要人類(lèi)參與的情況下制作大量的圖片和電影。文章指出,這將引發(fā)一些版權(quán)、道德和社會(huì)的問(wèn)題,比如2023年的美國(guó)作家和演員的罷工。
生成式人工智能對(duì)工作的總體影響,生成人工智能不是取代工人,而是賦予工人權(quán)力。技術(shù)變革會(huì)帶來(lái)新的就業(yè)機(jī)會(huì),而不是造成大規(guī)模失業(yè),技術(shù)變革會(huì)帶來(lái)一些痛苦和不平等,需要我們思考我們想要的工作的意義和價(jià)值。
生成人工智能會(huì)影響哪些類(lèi)型的工作,取決于工作的性質(zhì)和特點(diǎn),以及生成式人工智能的能力和局限。一般來(lái)說(shuō),生成式人工智能會(huì)影響那些需要大量的重復(fù)和規(guī)范的工作,比如數(shù)據(jù)的收集、處理、分析、可視化等,因?yàn)檫@些工作可以很容易地被生成式人工智能的算法和模型所實(shí)現(xiàn)和優(yōu)化,而且生成式人工智能可以比人類(lèi)更快、更準(zhǔn)、更全地完成這些工作。生成式人工智能也會(huì)影響那些需要高度的創(chuàng)造力和智慧的工作,比如音樂(lè)、藝術(shù)、文學(xué)、設(shè)計(jì)、游戲、醫(yī)療、教育、商業(yè)等,因?yàn)檫@些工作可以很好地利用生成式人工智能的生成能力和生成潛力,而且生成式人工智能可以比人類(lèi)更多、更新、更好地創(chuàng)造出這些內(nèi)容和產(chǎn)品。生成式人工智能還會(huì)影響那些需要跨領(lǐng)域和跨媒介的工作,比如從文本生成圖像,從圖像生成音頻,從音頻生成視頻等,因?yàn)檫@些工作可以很方便地使用生成式人工智能的生成技術(shù)和生成工具,而且生成式人工智能可以比人類(lèi)更靈活、更自由、更精確地生成出這些內(nèi)容和產(chǎn)品。
04 AI造假的風(fēng)險(xiǎn)有多大?
2023年,生成式AI引起了廣泛的關(guān)注和擔(dān)憂(yōu)。一些用AI制造的假照片在網(wǎng)上瘋傳,有些甚至涉及教皇、特朗普和五角大樓等敏感人物和地點(diǎn)。這些虛假信息不僅難以辨別,而且可能影響選舉結(jié)果。OpenAI自己也承認(rèn),它的技術(shù)可能被用于制造有害的宣傳。為了應(yīng)對(duì)這些問(wèn)題,拜登政府和歐盟都出臺(tái)了相關(guān)的規(guī)定和措施,要求AI生成內(nèi)容加上標(biāo)識(shí)和水印,并保護(hù)用戶(hù)免受聊天機(jī)器人的欺騙。同時(shí),美國(guó)還將對(duì)可能危及國(guó)家安全的AI進(jìn)行審計(jì)。但是,這些措施是否有效,是否及時(shí),是否合理,還有待觀察。一些AI專(zhuān)家和企業(yè)家對(duì)AI的未來(lái)和風(fēng)險(xiǎn)有不同的看法,有些擔(dān)心AI會(huì)導(dǎo)致人類(lèi)滅絕,有些認(rèn)為這是荒謬的,有些認(rèn)為應(yīng)該放慢AI的發(fā)展,有些認(rèn)為應(yīng)該加快AI的創(chuàng)新。他們之間的爭(zhēng)論還沒(méi)有結(jié)束,而生成式AI的使用和濫用也還在繼續(xù)。
2023年最火的三張照片是:教皇穿著B(niǎo)alenciaga的羽絨服,特朗普被警察摁倒在地,五角大樓爆炸。全都是假的,但卻被數(shù)百萬(wàn)人看到和轉(zhuǎn)發(fā)。
用生成式模型制造假文本或假圖像比以往更容易。很多人警告說(shuō),虛假信息泛濫。OpenAI參與了一項(xiàng)研究,揭示了它自己的技術(shù)可能被用于假新聞活動(dòng)的多種濫用方式。在2023年的一份報(bào)告中,它警告說(shuō),大型語(yǔ)言模型可能被用來(lái)制造更有說(shuō)服力的宣傳,而且難以識(shí)別,而且規(guī)模龐大。美國(guó)和歐盟的專(zhuān)家已經(jīng)表示,選舉面臨風(fēng)險(xiǎn)。
拜登政府在10月份發(fā)布的關(guān)于人工智能的行政命令,將AI生成內(nèi)容的標(biāo)注和檢測(cè)作為重點(diǎn),這并不令人意外。但是,這項(xiàng)命令沒(méi)有法律上強(qiáng)制要求工具制造商將文本或圖像標(biāo)記為AI的創(chuàng)作。而且最好的檢測(cè)工具還不夠可靠。
歐盟的AI法案本月達(dá)成一致,并且走得更遠(yuǎn)。這項(xiàng)全面的立法的一部分要求公司給AI生成的文本、圖像或視頻加上水印,并在人們與聊天機(jī)器人互動(dòng)時(shí)明確告知。而且AI法案有牙齒:規(guī)則是有約束力的,違反者將面臨高額罰款。
美國(guó)也表示,它將審計(jì)任何可能對(duì)國(guó)家安全構(gòu)成威脅的AI,包括選舉干預(yù)。這是一個(gè)很好的步驟,Benaich說(shuō)。但是,就連這些模型的開(kāi)發(fā)者也不知道它們的全部能力:“政府或其他獨(dú)立機(jī)構(gòu)能夠強(qiáng)制公司在發(fā)布模型之前進(jìn)行全面測(cè)試的想法似乎不現(xiàn)實(shí)。”
問(wèn)題在于:在技術(shù)被使用之前,我們不可能知道它會(huì)被濫用的所有方式。“2023年有很多關(guān)于放慢AI發(fā)展的討論,”Schaefer說(shuō)?!暗俏覀兂窒喾吹挠^點(diǎn)?!?/span>
除非這些工具被盡可能多的人以盡可能多樣的方式使用,否則我們無(wú)法使它們變得更好,他說(shuō):“我們不會(huì)理解這些奇怪的風(fēng)險(xiǎn)會(huì)以怎樣的細(xì)微方式顯現(xiàn),或者什么事件會(huì)引發(fā)它們?!?/span>
隨著使用的增加,新的濫用形式將繼續(xù)出現(xiàn)??赡軙?huì)有一些引人注目的例子,可能涉及選舉操縱。
05 我們會(huì)認(rèn)真對(duì)待它的成本嗎?
生成式AI的開(kāi)發(fā)不僅需要大量的數(shù)據(jù)和算力,還需要大量的人工干預(yù)和審核。這些工作往往由一些看不見(jiàn)的、低收入的工人來(lái)完成,他們的勞動(dòng)條件和心理健康都受到了忽視。2023年,OpenAI因?yàn)楣蛡蚩夏醽喌墓と藖?lái)過(guò)濾它的生成式模型的有害內(nèi)容而受到了媒體的曝光和批評(píng)。這引起了公眾對(duì)生成式AI的人力成本的關(guān)注和質(zhì)疑。另一方面,生成式AI的開(kāi)發(fā)也消耗了大量的能源,導(dǎo)致了環(huán)境污染和氣候變化。英偉達(dá)等公司因?yàn)樘峁┝擞?xùn)練AI模型的硬件而獲得了巨大的收益,但也面臨著節(jié)能和創(chuàng)新的壓力。公眾對(duì)AI的勞動(dòng)和環(huán)境成本的認(rèn)識(shí)將增加,給科技公司帶來(lái)壓力。但是,在這兩方面取得顯著的改善還需要時(shí)間和努力。
AI的代價(jià)有多高?生成式AI的開(kāi)發(fā)代價(jià),無(wú)論是人力還是環(huán)境,都不容忽視。看不見(jiàn)的工人問(wèn)題是一個(gè)公開(kāi)的秘密:我們免受了生成式模型能產(chǎn)生的最糟糕的東西,部分原因是有一群隱藏的(通常報(bào)酬很低的)勞工,他們給訓(xùn)練數(shù)據(jù)打標(biāo)簽,還要在測(cè)試過(guò)程中清除有毒的、有時(shí)是創(chuàng)傷性的輸出。這些是數(shù)據(jù)時(shí)代的血汗工廠。
2023年,OpenAI在肯尼亞的工人使用情況受到了《時(shí)代》和《華爾街日?qǐng)?bào)》等主流媒體的關(guān)注。OpenAI想要通過(guò)建立一個(gè)過(guò)濾器來(lái)改進(jìn)它的生成式模型,這個(gè)過(guò)濾器可以隱藏仇恨的、淫穢的和其他冒犯性的內(nèi)容,不讓用戶(hù)看到。但是,要做到這一點(diǎn),它需要人們找到并標(biāo)記大量這樣的有毒內(nèi)容的例子,以便它的自動(dòng)過(guò)濾器能夠?qū)W會(huì)識(shí)別它們。OpenAI雇傭了外包公司Sama,而Sama據(jù)稱(chēng)又使用了在肯尼亞的低薪工人,而且給他們的支持很少。
隨著生成式AI成為一個(gè)主流的問(wèn)題,人力成本將更加突出,迫使建造這些模型的公司解決全世界被雇傭來(lái)幫助改進(jìn)他們技術(shù)的工人的勞動(dòng)條件。另一個(gè)巨大的成本,就是訓(xùn)練大型生成式模型所需的能源,這個(gè)數(shù)字在情況好轉(zhuǎn)之前還會(huì)上升。8月份,英偉達(dá)宣布2024年第二季度的收入超過(guò)135億美元,比去年同期翻了一番。其中大部分收入(103億美元)來(lái)自數(shù)據(jù)中心,換句話說(shuō),就是其他公司使用英偉達(dá)的硬件來(lái)訓(xùn)練AI模型。
“需求非常驚人,”英偉達(dá)CEO黃仁勛說(shuō)?!拔覀冋幱谏墒紸I的起飛階段。”他承認(rèn)能源問(wèn)題,并預(yù)測(cè)這次繁榮甚至可能推動(dòng)計(jì)算硬件的類(lèi)型發(fā)生變化。“世界上絕大多數(shù)的計(jì)算基礎(chǔ)設(shè)施都必須節(jié)能,”他說(shuō)。
公眾對(duì)AI的勞動(dòng)和環(huán)境成本的認(rèn)識(shí)將增加,給科技公司帶來(lái)壓力。但是不要指望在這兩方面很快有顯著的改善。
06 AI末日論會(huì)影響政策制定嗎?
AI末日論——認(rèn)為智能機(jī)器的創(chuàng)造可能帶來(lái)災(zāi)難性,甚至是世界末日的后果——一直是AI的一個(gè)暗流。但是高潮迭起的炒作,加上AI先驅(qū)杰弗里·辛頓在5月份宣布他現(xiàn)在害怕他自己幫助建造的技術(shù),讓它浮出水面。
2023年,幾乎沒(méi)有什么問(wèn)題比這個(gè)更有爭(zhēng)議。像辛頓和另一位圖靈獎(jiǎng)得主、創(chuàng)立Meta AI實(shí)驗(yàn)室的雅恩·勒昆這樣的AI名人,對(duì)AI末日論持不同的看法,他們?cè)谏缃幻襟w上公開(kāi)爭(zhēng)吵,相互挖苦。
辛頓、OpenAI CEO薩姆·奧爾特曼等人建議,(未來(lái)的)AI系統(tǒng)應(yīng)該有類(lèi)似于核武器的安全措施。這樣的話引起了人們的注意。但是在7月份他與人合寫(xiě)的一篇《Vox》文章中,美國(guó)科學(xué)家聯(lián)合會(huì)核信息項(xiàng)目的項(xiàng)目經(jīng)理馬特·科達(dá),譴責(zé)了這些“混亂的類(lèi)比”和它們引發(fā)的“不消耗卡路里的媒體恐慌”。
我們很難分辨真假,因?yàn)槲覀儾恢腊l(fā)出警告的人的動(dòng)機(jī),Benaich說(shuō):“看起來(lái)很奇怪,很多人靠這些東西發(fā)了大財(cái),而且很多人還是那些主張更大控制的人。就像是說(shuō),‘嘿,我發(fā)明了一種很強(qiáng)大的東西!它有很多風(fēng)險(xiǎn),但我有解藥?!?有些人擔(dān)心這種恐嚇的影響。在X上,深度學(xué)習(xí)的先驅(qū)吳恩達(dá)寫(xiě)道:“我對(duì)AI未來(lái)的最大擔(dān)憂(yōu)是,如果被夸大的風(fēng)險(xiǎn)(比如人類(lèi)滅絕)讓科技說(shuō)客通過(guò)了壓制開(kāi)源和扼殺創(chuàng)新的嚴(yán)苛法規(guī)。”這場(chǎng)辯論也讓資源和研究人員從更緊迫的風(fēng)險(xiǎn),比如偏見(jiàn)、就業(yè)動(dòng)蕩和虛假信息轉(zhuǎn)移了注意力。
“有些人推動(dòng)存在風(fēng)險(xiǎn),因?yàn)樗麄冋J(rèn)為這會(huì)讓他們自己的公司受益,”谷歌的有影響力的AI研究員弗朗索瓦·喬萊說(shuō)。“談?wù)摯嬖陲L(fēng)險(xiǎn)既突出了你有多么有道德意識(shí)和責(zé)任感,又轉(zhuǎn)移了對(duì)更現(xiàn)實(shí)和緊迫問(wèn)題的關(guān)注?!?/span>
Benaich指出,有些人一邊敲響警鐘,一邊為他們的公司籌集1億美元。“你可以說(shuō),末日論是一種籌款策略,”他說(shuō)。
恐嚇將會(huì)平息,但對(duì)政策制定者的議程的影響可能會(huì)持續(xù)一段時(shí)間。呼吁重新關(guān)注更直接的危害將繼續(xù)。
07 附加問(wèn)題:人工智能的殺手級(jí)應(yīng)用還沒(méi)出現(xiàn)
OpenAI推出了一款聊天機(jī)器人ChatGPT,它基于OpenAI之前的大型語(yǔ)言模型GPT-3.5,但做了一些改進(jìn),使它更適合對(duì)話和回答問(wèn)題。這款聊天機(jī)器人引起了很多人的興趣和好奇,被認(rèn)為是人工智能領(lǐng)域的一次突破。OpenAI的聯(lián)合創(chuàng)始人兼首席科學(xué)家Ilya Sutskever說(shuō),他和他的團(tuán)隊(duì)經(jīng)常用ChatGPT來(lái)做各種事情,比如查單詞、查事實(shí)、規(guī)劃假期、學(xué)編程等。他說(shuō),人工智能是最火的東西,也是科技和經(jīng)濟(jì)的核心。但是,OpenAI沒(méi)有給ChatGPT設(shè)定一個(gè)明確的用途,而是讓用戶(hù)自由發(fā)揮。這讓很多人感到困惑和失望,因?yàn)樗麄儼l(fā)現(xiàn)ChatGPT并沒(méi)有什么驚人的功能,也沒(méi)有什么殺手級(jí)的應(yīng)用。谷歌的員工也對(duì)他們自己的聊天機(jī)器人Bard表示懷疑,不知道它有什么價(jià)值。投資公司紅杉資本的數(shù)據(jù)顯示,生成式人工智能的應(yīng)用還沒(méi)有達(dá)到Y(jié)ouTube和Instagram等流行服務(wù)的水平,用戶(hù)的忠誠(chéng)度很低。生成式人工智能還面臨著很多問(wèn)題和挑戰(zhàn),比如利基市場(chǎng)、競(jìng)爭(zhēng)對(duì)手、技術(shù)變革等。正如OpenAI的另一位聯(lián)合創(chuàng)始人兼首席執(zhí)行官Sam Schaefer所說(shuō),我們必須用前所未有的方式來(lái)解決這些問(wèn)題。
ChatGPT 本來(lái)差點(diǎn)沒(méi)上線。OpenAI 的聯(lián)合創(chuàng)始人兼首席科學(xué)家 Ilya Sutskever 對(duì)它的準(zhǔn)確性不滿(mǎn)意。其他人覺(jué)得它沒(méi)什么進(jìn)步。其實(shí),ChatGPT 只是把 OpenAI 之前開(kāi)發(fā)的大型語(yǔ)言模型 GPT-3.5 和一些有趣的改進(jìn)(比如更有對(duì)話感和更貼切的回答)結(jié)合起來(lái),做成一個(gè)方便的包?!八軓?qiáng)大,也很好用,”Sutskever 說(shuō)?!斑@是人工智能領(lǐng)域第一次讓外行人看到人工智能的進(jìn)步?!?/span>
ChatGPT 的炒作還沒(méi)結(jié)束?!叭斯ぶ悄苁亲罨鸬臇|西,”Sutskever 說(shuō)?!八强萍己徒?jīng)濟(jì)的核心。我覺(jué)得我們會(huì)一直對(duì)人工智能的能力感到驚訝。”
但既然我們知道了人工智能能做什么,那么它的用途是什么呢?OpenAI 沒(méi)有考慮這項(xiàng)技術(shù)的實(shí)際用途。他們發(fā)布 ChatGPT 時(shí)就說(shuō),隨你怎么用。從那以后,大家都在想這個(gè)問(wèn)題。
“我覺(jué)得 ChatGPT 很有用,”Sutskever 說(shuō)?!拔页S盟鼇?lái)做各種事。” 他說(shuō)他用它來(lái)查單詞,或者幫他表達(dá)得更清楚。有時(shí)他用它來(lái)查事實(shí)(雖然它不一定對(duì))。OpenAI 的其他人用它來(lái)規(guī)劃假期(“世界上最好的三個(gè)潛水地點(diǎn)是哪里?”)或者學(xué)編程或者找 IT 支持。
有用,但不夠驚艷。大部分例子都可以用現(xiàn)有的工具(比如搜索)來(lái)做。同時(shí),據(jù)說(shuō)谷歌的員工對(duì)他們自己的聊天機(jī)器人 Bard(現(xiàn)在由谷歌的 GPT-4 對(duì)手 Gemini 支持)的實(shí)用性有疑問(wèn)?!拔疫€在想,對(duì)于LLM來(lái)說(shuō),Bard 真的有什么用?” 巴德的用戶(hù)體驗(yàn)主管 Cathy Pearl 8 月份在 Discord 上寫(xiě)道?!熬拖裾娴挠懈淖儭_€不知道!”
沒(méi)有殺手級(jí)應(yīng)用,就沒(méi)有“哇”效應(yīng)。投資公司紅杉資本的數(shù)據(jù)顯示,雖然 ChatGPT、Character.ai 和 Lensa 等人工智能應(yīng)用可以讓用戶(hù)制作自己的風(fēng)格化(和性別歧視)頭像,但它們還是比 YouTube 和 Instagram 等流行的服務(wù)更容易失去用戶(hù)。抖音也是。
“消費(fèi)科技的規(guī)律還是一樣,”貝奈奇說(shuō)?!皶?huì)有很多試驗(yàn),炒了幾個(gè)月就死了。”
當(dāng)然,互聯(lián)網(wǎng)的早期也有很多失敗的嘗試。在改變世界之前,互聯(lián)網(wǎng)經(jīng)歷了一場(chǎng)泡沫。今天的生成式人工智能也可能會(huì)失敗,被下一個(gè)大事所取代。
不管怎樣,既然人工智能已經(jīng)成為主流,利基問(wèn)題也變成了大家的問(wèn)題。正如謝弗所說(shuō),“我們必須用前所未有的方式來(lái)解決這些問(wèn)題。”