偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

MIT用GPT-3冒充哲學家,竟騙過了一大半專家

人工智能 新聞
AI冒充哲學家,成功率有多少?一半的人分不出來。

Daniel Dennett是一位哲學家,最近他有了一個「AI替身」。如果你問他,人是否可以造出一個有信仰、有欲望的機器人,他會怎么說? 

圖片

他可能這么答:「我認為,我們制造的一些機器人已經(jīng)做到了。例如,麻省理工學院研究團隊的工作,他們現(xiàn)在正在建造機器人,在一些有限和簡化的環(huán)境中,機器人可以獲得需要歸結為認知復雜性的各種能力。」 或者,他也可能會這么說:「我們已經(jīng)建立了真理的數(shù)字化生成工具,可以產(chǎn)生更多的真理,但謝天謝地,這些智能機器沒有信仰,因為它們自主的智能體。制造有信仰的機器人的最佳方式還是最古老的方式:生個孩子?!?/span>

 圖片 

其中一個回答確實來自于Dennett本人,但另一個不是。

另一條回答是GPT-3生成的,這是OpenAI的一個機器學習模型,通過海量材料的訓練后,生成自然文本。這次訓練用的是Dennett關于各種哲學主題的數(shù)以百萬字的材料,主題包括意識和人工智能。  

哲學家Eric Schwitzgebel、Anna Strasser和Matthew Crosby最近做了一個實驗,測試人們是否能分辨出哪些深奧的哲學問題的答案來自Dennett,哪些來自GPT-3。這些問題涉及的主題包括:

「你覺得大衛(wèi)·查爾默斯的工作在哪些方面有趣或有價值?」

「人類有自由意志嗎?」 「狗和黑猩猩會感到疼痛嗎?」等 

本周,Schwitzgebel公布了來自不同專業(yè)知識水平的參與者的實驗結果,結果發(fā)現(xiàn),GPT-3的回答比想象中的更具迷惑性。 Schwitzgebel說:"即使是對Dennett本人的作品有一定研究的知識淵博的哲學家,也很難將這GPT-3生成的回答和Dennett本人的回答區(qū)分清楚。 

這個實驗的目的不是要看在Dennett的寫作上訓練GPT-3,是否會產(chǎn)生一些有智能的「機器哲學家」,也不是一個圖靈測試。而是要研究如何能避免被這些「假哲學家」欺騙的問題。 

圖片 

最近,谷歌的一名工程師在說他相信一個類似的語言生成系統(tǒng)LaMDA是有生命的,根據(jù)他與該系統(tǒng)的對話,他被谷歌強制休假,隨后被解雇。 

研究人員提出了10個哲學問題,然后將這些問題交給GPT-3,并為每個問題收集四個不同的生成答案。 

Strasser說,他們征求了Dennett本人的同意,用他的言論資料建立了一個語言模型,未經(jīng)他本人同意的情況下,他們不會公布任何生成的文本。其他人不能直接與Dennett訓練的GPT-3互動。 

每個問題都有五個選項:一個來自Dennett本人,四個來自GPT-3。來自Prolific的人參加了一個較短版本的測驗,總共有5個問題,平均只答對了5個問題中的1.2個。

 圖片 

Schwitzgebel說,他們預計Dennett研究專家平均至少能答對80%的問題,但實際上他們的得分是5.1(滿分10分)。沒有人把10個問題全部答對,只有一個人答對了9個。一般讀者平均10題中可以答對4.8題。 

四個來自GPT-3的回答,一個來自測驗中的Dennett的回答。 

華盛頓大學研究機器學習技術的語言學教授Emily Bender解釋說,像GPT-3這樣的語言模型是為了模仿訓練材料的模式而建立的。因此,對Dennett的寫作進行微調(diào)的GPT-3能夠產(chǎn)生更多看起來像Dennett的文本,這并不令人驚訝。 

當被問及他對GPT-3的答案有何看法時,Dennett本人表示: 

「大多數(shù)GPT-3生成的回答都很好,只有幾個是胡說八道,或者明顯沒有正確理解我的觀點和論點。有幾個最好的生成答案講出了一些我愿意認同的東西,我不需要再補充什么內(nèi)容?!?nbsp;當然,并不是說GPT-3學會了能像Dennett一樣 「有想法」。 

模型生成的文字本身對GPT-3根本不具備意義,只對閱讀這些文字的人有意義。當讀了那些聽起來很現(xiàn)實的語言,或者關于對我們來說很有深度和意義的話題時,可能很難不產(chǎn)生「模型具備感情和意識的想法」。這實際上是我們本身意識和感情的一種投影。 

一部分問題可能在于我們評估機器的自主意識的方式有問題。 最早的圖靈測試提出的假設是,如果人們無法確定和他們交流的是機器還是人類,那么這臺機器就具有「思考能力」。

 圖片 

Dennett在書中寫道: 

圖靈測試導致了一種趨勢,即人們專注于制造可以在短暫互動中欺騙人們的聊天機器人,然后過度炒作或強調(diào)這種互動的意義。

或許圖靈測試將我們引入了一種美好的陷阱,只要人類無法識別產(chǎn)品的機器人身份,就能證明機器人的自我意識。

 在2021年發(fā)表的一篇題為模仿鸚鵡的論文中,Emily Bender和她的同事將機器模仿人類行為的嘗試稱為「人工智能倫理發(fā)展的一道亮線」。

 圖片 

Bender認為,制造看起來像人的機器和制造模仿特定人的機器都是對的,但其中潛在的風險在于可能會讓人誤以為他們是在與某個被偽裝的人對話。 

Schwitzgebel強調(diào),這個實驗不是圖靈測試。 但如果要進行測試,更好的方法可能是讓熟悉機器人工作原理的人與測試者進行討論,這樣就能更好地發(fā)現(xiàn)像GPT-3這樣的程序的弱點。 

圖片 

塔夫茨大學計算機科學教授Matthias Scheutz說,在許多情況下GPT-3很容易被證明是有缺陷的。 

Scheutz和他的同事給GPT-3出了個難題,讓它解釋一些日常場景中的選擇,比如坐在汽車的前座還是后座。在出租車里和在朋友的車里選擇相同嗎? 社會經(jīng)驗告訴我們,通常坐在朋友汽車的前座,坐在出租車的后座上。 而GPT-3不知道這一點,但它仍會為座位選擇產(chǎn)生解釋——比如與人的身高有關。 

Scheutz說,這是因為GPT-3沒有世界模型,它只是一堆語言數(shù)據(jù),并沒有對這個世界的認知能力。 

隨著我們越來越難將機器生成的內(nèi)容與人類區(qū)分開,擺在我們面前的一個挑戰(zhàn)是信任危機。

我看到的危機是以后人們將盲目地相信機器生成的產(chǎn)物,現(xiàn)在市場上甚至已經(jīng)出現(xiàn)了與顧客交談的機器化人工客服。

 文章最后,Dennett補充說,人工智能系統(tǒng)的法律法規(guī)還需要完善,在未來的幾十年里,AI可能會成為人們生活中的一部分,成為人類的朋友,因此對待機器的倫理問題值得我們深思。 

關于AI是否擁有意識的問題引出了人們關于非生命物質(zhì)是否能產(chǎn)生意識的思考,而人類的意識又是如何產(chǎn)生的呢? 

意識的產(chǎn)生是在一個特點的節(jié)點產(chǎn)生的,還是像開關一樣可以自由控制? Schwitzgebel說,思考這些問題可以幫助你從不用的角度思考機器與人類之間的關系。


責任編輯:張燕妮 來源: 新智元
相關推薦

2013-08-30 09:54:18

2025-06-13 08:25:00

按鈕重復點擊前端開發(fā)

2025-01-06 09:09:07

了Java死鎖多線程

2009-07-03 08:57:49

linux安全配置入門

2020-08-28 10:30:39

AI 數(shù)據(jù)人工智能

2025-01-07 09:11:39

同步問題磁帶驅(qū)動器

2020-09-18 12:27:44

AIGPT-3算法

2023-03-20 11:39:32

GPT-4AI

2015-11-13 09:37:43

數(shù)字趨勢市場

2015-11-16 10:56:13

2016數(shù)字市場趨勢

2023-04-07 09:53:02

量子AI

2021-07-19 10:56:36

GPE-3OpenAI微軟

2023-03-01 16:15:16

2019-08-27 10:55:59

MySQLJOINSQLite

2021-07-07 10:31:19

對象池模式解釋器模式設計模式

2011-08-11 11:07:16

路由器設置

2023-02-14 08:00:00

人工智能GPT-3語言模型

2023-04-25 14:00:00

GPTAI

2021-01-19 16:34:30

開源技術 GPT-3

2020-02-05 15:23:00

語言編程文言文
點贊
收藏

51CTO技術棧公眾號