偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

機器人會取代人類嗎?

人工智能 機器人
人工智能現(xiàn)在得到越來越廣泛的應用,它們可以診斷疾病、駕駛汽車、理解語言,甚至在國際象棋比賽中擊敗人類頂尖高手。那么現(xiàn)在問題來了,人工智能經(jīng)過不斷改進,最終會達到甚至超過人類智能水平嗎?達到甚至超過人類智能的機器人會取代人類嗎?

人工智能現(xiàn)在得到越來越廣泛的應用,它們可以診斷疾病、駕駛汽車、理解語言,甚至在國際象棋比賽中擊敗人類頂尖高手。那么現(xiàn)在問題來了,人工智能經(jīng)過不斷改進,最終會達到甚至超過人類智能水平嗎?達到甚至超過人類智能的機器人會取代人類嗎?

[[442120]]

實際上,這個問題一直讓一代又一代的人們揮之不去而且深感不安。就像在斯坦利·庫布里克(Stanley Kubrick)1968年的電影《2001太空漫游》(2001:A Space Odyssey)當中描述的,一臺令人恐懼的智能計算機“哈爾”,通過自己平靜的嗓音展現(xiàn)出了一些人類特有的能力:說話、推理、識別人臉、審美、表達情緒。在哈爾得知人類宇航員決定將其關閉時,哈爾將他們逐一殺害。這樣可怕的情景會在未來出現(xiàn)嗎? 

英國Mimecast公司首席數(shù)據(jù)科學家赫伯特·羅埃布萊特(Herbert L. Roitblat)在其《算法還不夠:創(chuàng)建通用人工智能》一書中提出看法說:機器智能的改進不會導致機器主導的革命。它們可能會改變人們從事的工作類型,但不意味著人類生存的終結。機器人不會取代人類。

他為什么得出這樣的結論?讓我們先把目光投回到2000多年前的西西里島的錫拉庫扎。在那里,阿基米德正光著屁股泡在澡堂子里,苦苦思索國王交給他的一道難題。

據(jù)說,錫拉庫扎國王希羅二世(公元前 270 至 前215 年)懷疑,他委托放置在一座寺廟雕像頭上的奉獻王冠不是由純金制成的。阿基米德的任務是確定希羅二世是否被騙了。

最開始阿基米德找不到辦法,因為不能將王冠敲碎了檢查。然后有一天他泡澡,當他坐進澡盆里時,看到水往外溢,突然想到可以用測定固體在水中排水量的辦法,來確定金冠的體積,通過相同質量的純金的體積來確定王冠的真假。

然后,他就興奮地跳出澡盆,連衣服都顧不得穿上就跑了出去,大聲喊著“尤里卡!尤里卡!(我找到了!我找到了!)” 

羅埃布萊特將阿基米德的這個故事歸類為洞察力問題,跟人工智能解決問題的方法完全不同。羅埃布萊特說,我們人類是有創(chuàng)造力的,而且具有非理性的和不一致的特點,這些特質(無論是好是壞)都是機器智能所不具備的。

一般來說,智力測試和計算機智能的重點一直放在結構良好和形式化的問題上。也就是說,問題具有明確的目標和一定數(shù)量的可能解決方案。洞察力問題通常無法通過像算法這樣的分步程序來解決。相反,洞察力問題的特征是求解者解決問題的方法的一種重構。在問題基本上得到解決之前,通常很難確定是否取得了任何進展,然后可能就突然找到了解決方案。

關于人類如何解決洞察力問題,我們知之甚少。在實驗室中深入研究這些問題通常具有挑戰(zhàn)性,因為很難要求人們描述他們解決問題所經(jīng)歷的步驟。我們都知道,人們并不總是按照邏輯思維所建議的系統(tǒng)方式行事。這些偏差不是人類思維中的小故障或錯誤,而是實現(xiàn)人類智能的基本特征。

除了洞察力問題,人類智能還有非理性的特征,這種說不上是優(yōu)點的特點,也讓機器智能無法超越,是不是有點可笑?

人類似乎通常不會過多關注問題的形式部分,尤其是在做出有風險的選擇時。心理學家阿莫斯·特沃斯基 (Amos Tversky) 和丹尼爾·卡尼曼 (Daniel Kahneman) 發(fā)現(xiàn),人們在面對本質上相同而描述上有差異的選擇時會做出不同的選擇。

他們進行了一項實驗,參與者被要求想象一種新的疾病威脅著這個國家,可能有 600 人死于這種疾病。他們進一步被告知,已經(jīng)提出了兩個計劃來治療這些人。參與者被分為兩個組,被要求在兩種治療方法之間進行選擇。在第一組中,他們被告知:

72% 的參與者選擇了治療 A。人們認為,確定能挽救 200 人比有可能失去全部 600 人更可取。

第二組參與者被給予相同選擇的不同版本:

在第二組中,22% 的參與者選擇了治療 A。

實際上,從死亡和存活人數(shù)來看,治療 A 對兩組來說都是相同的。但換了一種說法之后,人們的選擇就大相徑庭。

上述實驗說明人們的偏好差異是巨大的。第一個版本強調了替代方案的積極方面,第二個版本強調了消極方面。戲劇性地,人們更喜歡積極的版本。

值得注意的是,備選方案 B 在兩種情況下也是相同的。在備選方案 B 下生存的預期人數(shù)也是 200,但該備選方案包含不確定性。

實驗表明,當某個結果以積極的語氣構筑時,人們更喜歡確定的結果而不是不確定的結果,而當以否定的語氣構筑某個特定的結果時,人們更喜歡不確定的選擇。備選方案的框架或基調控制著參與者接受風險的意愿。

上述實驗可以說這是人類愚蠢而不是人類智慧的一個例子。但另一方面,這個錯誤可能會告訴我們一些關于我們如何做出決定的重要信息。正確和錯誤的決定都是由相同的大腦/思想/認知過程產(chǎn)生的。

這些心理現(xiàn)象表明,我們的思維和智力過程具有復雜性,這并不總是對我們有利。我們妄下結論,我們更容易被我們更喜歡的或者以某種方式表述的論點說服。我們有時確實表現(xiàn)得像電腦,但更多時候,我們是馬虎和不一致的,與電腦完全不同。

丹尼爾·卡尼曼將人類思維描述為由兩個系統(tǒng)組成,一個是快速、相對不準確和自動的;另一個是緩慢的、深思熟慮的,當它最終得出結論時,也更準確一些。

計算機智能專注的工作需要縝密思考的系統(tǒng),但快速思考的系統(tǒng)可能同樣重要或者更重要,而且對于在計算機中進行仿真可能更具挑戰(zhàn)性。這種快速學習有時可能會導致不恰當?shù)牟萋矢爬ǎ部赡苁且粋€重要的工具,讓人們可以在沒有大多數(shù)機器學習系統(tǒng)所需的大量示例的情況下學習很多東西。

羅埃布萊特總結說,如果機器學習系統(tǒng)所需的只是發(fā)揮其分析能力,那么機器很可能會超過人類解決類似問題的能力。另一方面,如果問題需要發(fā)散思維、常識知識或創(chuàng)造力,那么計算機將在一段時間內繼續(xù)落后于人類。

被計算機“深藍”擊敗的國際象棋大師卡斯帕羅夫說,“深藍”的智能程度跟一臺可編程鬧鐘是一樣的。

當然,他也補充說:“但并不是說輸給一臺價值1000萬美元的鬧鐘會讓我感到好過一些。”

 

責任編輯:華軒 來源: 今日頭條
相關推薦

2023-05-24 13:04:46

機器人人工智能

2020-05-13 14:26:14

機器人體育運動人工智能

2023-05-02 22:34:21

聊天機器人人工智能

2017-03-11 11:19:43

機器人取代人類

2021-04-19 20:30:06

機器人AI人工智能

2020-12-08 11:06:52

人工智能機器學習

2022-12-08 09:17:30

ChatGPT漏洞AI

2020-10-22 10:23:22

機器人工智能技術

2017-03-21 08:31:33

人工智能

2017-03-28 09:23:04

科技新聞早報

2021-03-07 12:35:24

人工智能AI

2021-09-21 10:33:56

人工智能科學技術

2021-02-15 15:28:38

機器人人工智能春晚

2017-03-30 11:21:31

百勝機器人人工智能

2020-09-27 10:28:22

人工智能機器學習技術

2020-10-22 13:09:26

人工智能

2020-06-01 09:29:10

人工智能技術機器人

2018-07-11 10:19:44

機器人工智能白領

2021-10-27 10:41:06

機器人人工智能AI

2020-07-10 08:34:45

人工智能機器人技術
點贊
收藏

51CTO技術棧公眾號