偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

人工智能對人類文明造成威脅?我們來看看AI安全

移動開發(fā)
著名物理學家史蒂芬·霍金【注1】最近發(fā)出了警告,如果人工智能超過了人類智能,就對人類文明的存在造成了威脅。數(shù)字貨幣、私人太空飛行和電子汽車的先驅(qū)Elon Musk,也表示了類似的擔憂。

[[125155]]

Kurzweil寫了五本人工智能(Artificial Intelligence,簡稱AI)方面的書,有一本是紐約時報的暢銷書《How to Create a Mind》。

兩位偉大的思想家看到了AI的危險。下面談談怎樣讓AI安全。

著名物理學家史蒂芬·霍金【注1】最近發(fā)出了警告,如果人工智能超過了人類智能,就對人類文明的存在造成了威脅。數(shù)字貨幣、私人太空飛行和電子汽車的先驅(qū)Elon Musk,也表示了類似的擔憂。

如果AI成為了存在的威脅,那么它不會是***個。在我孩提時代的、1950年人防演習期間,我坐在桌子底下。從那以后,我們就遇到了可比較的恐懼,比如生物恐怖主義者創(chuàng)造了一種人類無法抵抗的新病毒?;鹉軌驕嘏覀儭⒁材軣粑覀兊拇迩f,技術總是一把雙刃劍。

典型的反烏托邦未來主義的電影,總是有一到兩個主人公或團體在為了控制人工智能而戰(zhàn)。AI正被集成到當今世界。AI不是一只手或兩只手;它是10億或20億只手。持有智能手機的非洲孩子,比起20年前的美國總統(tǒng),已經(jīng)能夠更加智能地訪問知識了。隨著AI更加聰明,它的用途仍然在增長。實際上,每個人的智力在近10年內(nèi)已經(jīng)被AI放大了不少。

我們在人群中仍然有沖突,每個群體都被AI放大了,這已有先例。但是,暴力呈現(xiàn)著深遠的、指數(shù)級的減少,我們可以從中感到安慰,正如Steven Pinker的2011年的書《The Better Angels of Our Nature》中提到的:為什么暴力減少了。根據(jù)Steven Pinker的觀點,雖然地點不同導致統(tǒng)計數(shù)據(jù)不同,但是戰(zhàn)爭的死亡率與六個世紀以前相比,已經(jīng)下降了數(shù)百倍。從那以后,謀殺降低了十倍。人們對此感到吃驚。暴力在上升的印象,起源于另一種趨勢:關于世界上負面的信息,有著指數(shù)級的詳實程度——它是被AI支持的另一種發(fā)展。

我們能夠部署一些策略來保持新興的、像AI安全之類的技術??紤]到生物技術,或許已經(jīng)領先AI數(shù)十年了。在1975年召開的關于重組DNA的阿希洛馬會議評估了其潛在危險,并規(guī)劃了戰(zhàn)略以確保該領域的安全。從那以后,***的方針已經(jīng)被行業(yè)做了改進,運轉(zhuǎn)非常好:在過去的39年,已經(jīng)沒有重大問題了,偶然的或故意的。我們現(xiàn)在看到了達到臨床實踐的藥物治療取得的巨大進步,遠遠沒有出現(xiàn)預期的問題。

對于AI的道德規(guī)范的考慮,可以退回到艾薩克·阿西莫夫(Isaac Asimov)1942年的短篇小說《環(huán)舞》(Runaround)【注2】的機器人三大定律【注3】,8年后,艾倫·圖靈在1950年發(fā)表的論文“計算機器與智能”中的AI領域。今天AI從業(yè)者的普通看法就是,我們要完成人類級別的AI仍然需要數(shù)十年。我更加樂觀地把時間壓在了2029年,但是不管怎么說,我們還有時間來規(guī)劃道德標準。

已經(jīng)有大學和企業(yè)在努力推動AI安全策略和方針了,有的已經(jīng)步入正軌。與阿希洛馬會議的方針類似,一個想法就是,清晰地定義每個AI程序的使命,建立加密的安全保護以阻止未授權用戶。

末了,我們能夠確保AI安全的最重要方法就是致力于人類管理和社會制定。我們已經(jīng)到了 人-機文明 的時代。未來避免消極沖突的***方式,就是繼續(xù)發(fā)展我們社會理想,它極大地減少了暴力。

如今,AI正在推進疾病診斷、尋找治療方法、開發(fā)可再生清潔能源、幫助清潔環(huán)境、向全世界的人們提供高質(zhì)量的教育、幫助殘疾人(包括史蒂芬·霍金的聲音)以及在無數(shù)種其它方式上貢獻著力量。未來數(shù)十年,我們有機會在處理人類的巨大挑戰(zhàn)上邁開一大步。在控制這種危險時,我們在道義上有責任去實現(xiàn)這個諾言。這將不會是我們***次在這方面取得成功。

  • 注1:史蒂芬·霍金;,OCH,CBE,F(xiàn)RS,F(xiàn)RSA(英語:Stephen Hawking,1942年1月8日-),英國著名物理學家,是劍橋大學理論宇宙學中心研究主任?;艚鹱龀龊芏嘀匾暙I:他與羅杰·彭羅斯共同合作提出在廣義相對論框架里的彭羅斯–霍金定理,他理論預測黑洞會發(fā)射輻射,現(xiàn)稱為霍金輻射。http://zh.wikipedia.org/wiki/%E5%8F%B2%E8%92%82%E8%8A%AC%C2%B7%E9%9C%8D%E9%87%91
  • 注2:《環(huán)舞》(Runaround)是美國作家艾薩克·阿西莫夫創(chuàng)作的一篇短篇科幻小說,里面有在其之后的多部小說中多次出現(xiàn)的人物鮑威爾(Powell)和杜魯門(Donovan)。這篇小說寫于1941年10月,初次出版在1942年三月的《超級科學故事》(Super Science Stories)雜志上。http://zh.wikipedia.org/wiki/%E7%8E%AF%E8%88%9E_(%E7%9F%AD%E7%AF%87%E5%B0%8F%E8%AF%B4)
  • 注3:機器人三定律(Three Laws of Robotics)是科幻小說家艾薩克·阿西莫夫(Isaac Asimov)在他的機器人相關作品和其他機器人相關小說中為機器人設定的行為準則,是阿西莫夫除“心理史學”(Psychohistory)外另一個著名的虛構學說。http://zh.wikipedia.org/wiki/%E6%9C%BA%E5%99%A8%E4%BA%BA%E4%B8%89%E5%AE%9A%E5%BE%8B

英文原文:http://time.com/3641921/dont-fear-artificial-intelligence/

譯文出自:http://www.labazhou.net/2014/12/dont-fear-artificial-intelligence/

責任編輯:林師授 來源: 臘八粥
相關推薦

2021-03-17 10:32:51

人工智能

2017-04-27 20:45:51

人工智能霍金人類文明

2017-12-13 16:30:53

霍金人工智能

2017-12-04 09:23:00

人工智能信息化智能

2023-07-03 09:47:28

2021-08-20 20:00:41

人工智能AI

2018-05-15 09:25:09

2025-10-11 15:38:01

AI機器模型

2023-05-26 15:36:56

2017-11-06 13:34:17

人工智能造福威脅人類

2023-02-17 14:56:42

2023-06-16 08:07:28

2022-09-26 10:56:46

人工智能智能物聯(lián)網(wǎng)

2021-01-03 18:01:15

人工智能AI網(wǎng)絡安全

2021-03-19 10:22:03

人工智能

2018-09-27 15:52:20

人工智能人類AI

2021-01-04 15:54:07

人工智能人工智能技術

2021-03-09 10:37:59

人工智能超人工智能

2018-04-23 08:41:57

人工智MongoDB數(shù)據(jù)驅(qū)動

2022-07-29 14:59:22

人工智能軍事防御安全
點贊
收藏

51CTO技術棧公眾號