偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

人工智能會意識到自己犯錯嗎?

人工智能
科學(xué)記者、神經(jīng)科學(xué)家范雪莉梳理了過去60年人工智能的爆炸式發(fā)展和未來的發(fā)展前景,描繪了人工智能目前的局限和存在的道德倫理問題,使我們對人類與人工智能的關(guān)系有了更清醒的認(rèn)知。

[[378419]]

 圖源:Analytics India Magazine

1956年8月,10位科學(xué)家齊聚美國的達(dá)特茅斯學(xué)院,探討如何用機器去模擬感知、推理、決策等人類智能,這被認(rèn)為是人工智能的誕生標(biāo)志性事件。

六十年過去了,人工智能飛速發(fā)展,已深入我們的日常生活。

某些外賣平臺的智能算法不斷優(yōu)化,能從11萬條路線中找出最優(yōu)的配送方案,將過去1小時的配送時間變成45分鐘,又壓縮成38分鐘,充分挖掘外賣小哥的潛力,才有了我們越來越快的外賣。

某些公司有了OA算法管理系統(tǒng)的加持,才能實時監(jiān)控員工的工作狀態(tài),員工的心率、呼吸、坐姿、疲勞度等數(shù)據(jù)實時上傳,連上廁所的時間都可以精確到秒,充分挖掘打工人的潛力,才有了公司的完美財報。

某些辦公APP,在員工眼中,操作方便,各種需要的功能齊全,卻為老板開了“上帝之眼”,各種報表分析、排行榜、工時計算、行進(jìn)路線一覽無余,才有了我們保質(zhì)保量完成的“本分”和“福報”

……

為什么技術(shù)越先進(jìn),我們的生活反而越不自由?

人工智能究竟是要將我們從繁瑣的工作中解放出來,還是要站在我們的對立面壓迫我們?

[[378420]]

圖源:Unsplash

在《AI會取代我們嗎?》一書中,科學(xué)記者、神經(jīng)科學(xué)家范雪莉梳理了過去60年人工智能的爆炸式發(fā)展和未來的發(fā)展前景,描繪了人工智能目前的局限和存在的道德倫理問題,使我們對人類與人工智能的關(guān)系有了更清醒的認(rèn)知。

范雪莉接受了中信大方及造就聯(lián)合發(fā)起的提問,回答了一些讀者提出的問題:

過去20中,AI領(lǐng)域發(fā)生的哪件事使你印象最深刻或最驚訝?
AI對我們的日常生活有哪些影響?
你對AI的未來有什么擔(dān)憂或期待嗎?
AI和人類智能最根本的區(qū)別是什么?
你認(rèn)為發(fā)展AI是一場技術(shù)政治競賽嗎?
以下內(nèi)容節(jié)選自《AI會取代我們嗎?》,由出版社授權(quán)發(fā)布。

不完善的算法會帶來可怕的結(jié)果,在2016年,一輛半自動特斯拉汽車引發(fā)了一起致命的交通事故,這就是一個實例。

事發(fā)時,處在自領(lǐng)航(Auto-pilot)模式中的汽車錯誤地將一輛白色牽引掛車判斷為從背光角度看到的明亮天空的一部分,從而導(dǎo)致與拖車底部相撞。

2018年3月,一輛優(yōu)步機器人汽車在亞利桑那州的坦佩市撞死了一名行人。事后調(diào)查發(fā)現(xiàn),人工智能其實已經(jīng)探測到了這名女子,但算法錯誤地判斷她不在車輛的前進(jìn)路線上。

不久之后,一輛處于自動駕駛模式中的慧摩汽車受到了一輛人類駕駛的汽車的撞擊,該事件也給研究者們出了一個難題:如何改良人工智能駕駛員的程序,才能讓它們更好地同人類駕駛員平安無事地共享道路。

幾個月后,一輛特斯拉S型(Model S)箱式轎車撞上了一堵混凝土墻,導(dǎo)致兩名乘客死亡。

[[378421]]

圖源:NBC News

不過,盡管發(fā)生了這些悲慘的事故,但自動駕駛汽車安全性的整體統(tǒng)計數(shù)據(jù)還是讓人眼前一亮。

例如,慧摩的汽車雖然卷入了大約30起輕微撞車事故中,但只有一起事件是由慧摩車一方引起的。

2016年,一輛慧摩車在自動駕駛模式下變道進(jìn)入了一輛公共汽車的車道,使汽車遭到了輕微的損傷。但在該事件中并沒有任何人受傷。

英特爾在2017年發(fā)布的一項研究預(yù)測稱,自動駕駛汽車的投放可以在短短十年內(nèi)挽救超過50萬人的生命。

盡管如此,公眾對人工智能汽車的信任度仍然處在歷史最低水平。

皮尤研究中心(Pew Research Center)在2017年展開的一項調(diào)查顯示,超過一半的受訪公眾對乘坐自動駕駛汽車不放心,而他們反對的理由正是對安全性的擔(dān)憂和掌控感的缺失。

美國汽車協(xié)會在2018年3月優(yōu)步車致死事故發(fā)生后進(jìn)行的一項調(diào)查顯示,有73%的美國人表示自己害怕乘坐自動駕駛汽車,這一數(shù)字比2017年底增加10%。

這些擔(dān)憂有一部分來自人們對機器學(xué)習(xí)和人工智能背后的機制缺乏了解。

對于公眾而言,人工智能就像是一種神秘的煉金術(shù):某些算法在某些時候會產(chǎn)生正確的答案,但是當(dāng)它們失敗時——比如,當(dāng)Siri對一個提問給出了荒唐的答案時——消費者無法理解其成因是什么。

[[378422]]

消費者無法理解Siri給出荒唐答案的成因圖源:Unsplash

同樣,當(dāng)網(wǎng)飛給用戶興趣建立的檔案錯得離譜時,或者當(dāng)自動駕駛汽車停靠在了自行車道上時,用戶無法追問這類技術(shù)到底是在哪里出了問題。

更為嚴(yán)肅的是那些生死攸關(guān)的事項,例如對人工智能武器的使用。美國軍方正在考慮在軍事任務(wù)中應(yīng)用機器學(xué)習(xí)技術(shù),以幫助情報分析人員對大量監(jiān)視數(shù)據(jù)進(jìn)行模式識別,或者操控自主無人機。

在這些應(yīng)用中,出錯卻無法解釋自身錯誤的算法會帶來災(zāi)難性的后果。

這種缺乏信任的情況也延伸到了醫(yī)學(xué)界。盡管有放射醫(yī)學(xué)人工智能研發(fā)者的鄭重承諾,但醫(yī)療護(hù)理從業(yè)人員對完全接受人工智能診斷技術(shù)仍然持保留態(tài)度。

有一種反對意見是,雖然人工智能技術(shù)確實振奮人心,但是大多數(shù)人工智能工具并沒有經(jīng)過受到足夠數(shù)量的獨立研究組的測試。

因此它們的一些關(guān)鍵細(xì)節(jié)并沒有得到驗證,也就是說,它們無法被證明可以應(yīng)用于所有、任何患者樣本。

不過,同Siri、自動駕駛汽車和自主武器面臨的問題一樣,一個更強有力的反駁意見是:

在今天,無論是對還是錯,人工智能系統(tǒng)都無法解釋它們的決定,甚至它們的開發(fā)者也對促成系統(tǒng)決定的緣由一頭霧水。

[[378423]]

圖源:Pixabay

這一問題十分嚴(yán)重,以至于人工智能算法常常被人們描述為“黑箱系統(tǒng)”。

因此,不可理解性是人工智能算法的一個主要局限,也是阻礙人工智能系統(tǒng)得到公眾信任一個重要因素。

機器學(xué)習(xí)的不透明性在一定程度上是由算法的訓(xùn)練方式造成的。今天我們所使用的大多數(shù)人工智能應(yīng)用都依賴于深度學(xué)習(xí),這種人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與人腦大致相似。

每個這樣的神經(jīng)網(wǎng)絡(luò)的出發(fā)點都是大量的數(shù)據(jù),比如數(shù)百萬張狗的照片。

當(dāng)數(shù)據(jù)通過神經(jīng)網(wǎng)絡(luò)的復(fù)數(shù)計算層時,各層會逐步提取出越來越多的抽象特征,使正確的結(jié)果能在最終輸出層產(chǎn)生出來,如對吉娃娃和迷你杜賓犬做出區(qū)別。

但是,由于此過程是在神經(jīng)網(wǎng)絡(luò)內(nèi)部進(jìn)行的,因此研究人員并不一定能對每個抽象特征做出解釋,也不一定能理解網(wǎng)絡(luò)是如何決定提取特定特征的集合的。

毫無疑問,機器學(xué)習(xí)具有在各行各業(yè)改天換日的巨大能量,它既可以拓展人類的能力,也可以在一些任務(wù)中取代人類。

但是,在研究人員找到讓算法變得更易理解,繼而變得更加有能力為自己負(fù)責(zé)的方法之前,我們不應(yīng)該讓這種情況發(fā)生。

令人欣慰的是,最近的研究表明,我們并非對機器學(xué)習(xí)的黑箱特征束手無策。實際上,已經(jīng)有研究人員在著手研發(fā)能夠探查機器學(xué)習(xí)大腦內(nèi)部情況的新工具了,這是一個名為人工智能神經(jīng)科學(xué)的研究分支。

其中一種構(gòu)思是:微妙地改變算法的輸入,并觀察是否有影響,以及哪些變化會影響輸出,我們就能獲得解釋。

例如,一種被稱為“局部可解釋模型–不可知論解釋”(Local Interpretable Model–Agnostic Explanation = LIME萊姆)的工具就能通過巧妙改變原始輸入來尋找影響人工智能判斷的關(guān)鍵因素。

為了了解影響負(fù)責(zé)電影評分的人工智能的因素,萊姆會細(xì)致地刪除或更換在一篇影評的原始文本中導(dǎo)致正面評價的單詞。然后,系統(tǒng)會觀察電影評分可能出現(xiàn)的變化。

反復(fù)進(jìn)行這個過程,萊姆就能梳理出一些結(jié)論,比如,“漫威”這個詞幾乎總是與高評分正相關(guān)的。

上述路徑的另一個分支是由谷歌開發(fā)的,它以一個空白的參照項(比如純黑的圖片)作為開始,然后逐步將其轉(zhuǎn)換為輸入圖像。

在每一步轉(zhuǎn)化的過程中,研究人員可以觀察人工智能生成的圖像結(jié)果,并推斷哪些特征對它的決定很重要。

另一種構(gòu)思依賴于一種本質(zhì)上扮演了機器—人類翻譯器角色的算法。具體來說,該算法可以向人類觀測者解釋特定的人工智能正在嘗試進(jìn)行怎樣的活動。

OpenAI公司使用該策略來檢查用于防御黑客的人工智能算法。這種方法在基礎(chǔ)算法之外引入了一個處理自然語言算法,它就是翻譯器。

翻譯器被用于對防黑客算法提問,考察后者的智慧。研究人員可以觀察問答部分,并且在翻譯器的幫助下了解在防黑客算法的決策背后所隱藏的邏輯。

當(dāng)然,有一些人工智能的決策根本無法得到完整的解釋,這也是完全有可能的。畢竟,人類的種種決定通常都包含有直覺因素,受到本能和經(jīng)驗的指引。

而對于研究者們來說,他們所面臨的問題是在何種程度上,能夠讓他們的發(fā)明去合理地解釋自身。

還有一個更為隱蔽的后果,需要我們?nèi)f分警惕:人工智能算法可能會根據(jù)種族、性別或意識形態(tài)隱約但系統(tǒng)性地對某些人群給予區(qū)別對待。

谷歌的第一代自動相片標(biāo)簽系統(tǒng)曾將非裔人誤認(rèn)為大猩猩,激起了人們的憤怒,就是一個廣為人知的負(fù)面案例。

普洛帕布利卡(ProPublica)在2016年對一款用于預(yù)測罪犯重新犯罪概率的風(fēng)險評估軟件——孔帕斯(COMPAS)進(jìn)行了調(diào)查,結(jié)果顯示,雖然該軟件并沒有專門針對種族做出明確設(shè)計,但是它依然對黑人抱有偏見。

2017年的一項研究表明,算法在單詞聯(lián)想中也會表現(xiàn)出偏見:男性更可能與工作、數(shù)學(xué)和科學(xué)聯(lián)想到一起,而女性則會同家庭和藝術(shù)聯(lián)想在一起。這些偏見會對就業(yè)招聘產(chǎn)生直接影響。

例如,如果一款人工智能程序認(rèn)為“男性”與“程序員”兩個詞有固有的聯(lián)系,那么,當(dāng)它在為一個計算機編程職位檢索簡歷的時候,就很可能會將有著一個聽起來像男性的名字的簡歷排到面試表的頂部。

[[378424]]

算法在單詞聯(lián)想中也會表現(xiàn)出偏見圖源:繪本I'm glad I'm a boy! I'm glad I'm a girl!

偏見也同樣為翻譯軟件帶來了麻煩。例如,在谷歌翻譯將其他語言中的一個中性代詞翻譯為英語的時候,如果這個代詞在語境中指的是一位醫(yī)生,它就會將這個詞翻譯為男性的“他”(he);

而如果這個代詞在語境中指的是一位護(hù)士,它就會將其翻譯為女性的“她”(she)。

另外,語音識別軟件在處理女性聲音和方言時效果要差得多,這就使得那些使用非標(biāo)準(zhǔn)發(fā)音方式的社會重要成員受到了排斥。

另外一些算法可能已經(jīng)以一種不易察覺的方式扭曲了人們接受醫(yī)療或保險的類型,改變了他們在刑事司法系統(tǒng)中的待遇,或者對哪些家庭更有可能虐待兒童做出不恰當(dāng)?shù)念A(yù)測。

偏見和不公正侵蝕了人類與人工智能系統(tǒng)之間的信任,它并不能像人們一開始預(yù)測的那樣成為一個對社會貢獻(xiàn)巨大的均衡器——在從中立的角度做出影響生活的決定這件事上,人工智能可能并不比人類做得更好。

果真如此,那么社會為什么認(rèn)為機器可以成為銀行從業(yè)者、招聘人員、警察或法官“更公正”的替代品呢?

……

2017年,由來自學(xué)界、民間組織和產(chǎn)業(yè)界的二十多位作者共同發(fā)表了一份報告,論述了隨著人工智能技術(shù)愈發(fā)強大和普及,它可能會以哪些方式變成邪惡的幫兇。該報告列舉了一系列可怕的例子:

一輛被盜用的自動駕駛汽車可能會被操縱,撞到人群之中,或者被劫持用來運送爆炸物。感染了惡意軟件的大腦芯片或心臟起搏器可能被用于遠(yuǎn)程暗殺,犯罪分子也可以用面部或語音模擬技術(shù)進(jìn)行精準(zhǔn)定位網(wǎng)絡(luò)詐騙。

該報告呼吁,人工智能研究人員應(yīng)在其科技產(chǎn)品中設(shè)置安全保障,并更為公開地討論潛在的安全、安保問題。

令人驚訝的是,該報告甚至建議研究人員應(yīng)該在他們?yōu)楫a(chǎn)品公開發(fā)布的內(nèi)容中隱瞞某些想法或應(yīng)用方式。

如今,大多數(shù)研究人員抱有一種公開透明的態(tài)度,他們會在博客文章中發(fā)布他們的作品,并將代碼開源。

該領(lǐng)域的許多人認(rèn)為,對于可能出現(xiàn)的有問題的人工智能應(yīng)用,更好的策略是揭示它們,并在它們發(fā)生前就給出警告,防患于未然,而不是讓它們不為人知地被開發(fā)出來。

事實上,在谷歌為其語音模仿程序杜普雷克斯辯護(hù)時,也用了同樣的論據(jù):通過發(fā)布具有潛在破壞性的人工智能程序,公司就能收到公眾關(guān)于如何最好地對這種技術(shù)加以規(guī)范的反饋。

在某些人看來,人工智能從業(yè)者中的這種開放氛圍似乎有些天真,但它其實在一定程度上是由該領(lǐng)域的歷史造成的。

在過去,人工智能所經(jīng)歷的幾度沉浮讓人們覺得人工智能的應(yīng)用和改變社會的能力被高估了。

對人工智能發(fā)展水平持懷疑態(tài)度的人相信,有關(guān)人工智能道德或倫理的擔(dān)憂根本沒有意義,因為這種技術(shù)可能永遠(yuǎn)不會完全成熟。

[[378425]]

人工智能可能永遠(yuǎn)不會完全成熟圖源:Jason Reed/The Daily Dot

這些反對者的意見并非空穴來風(fēng):盡管最近在自動化領(lǐng)域發(fā)生了一次革新,但作為當(dāng)前人工智能熱的主要推手,機器學(xué)習(xí)算法嚴(yán)重的局限性也已經(jīng)逐漸顯露了出來。

如果這些問題沒有得到及時解決,導(dǎo)致投資者的期待無法得到滿足,那么人工智能的另一個冬天可能就離我們不遠(yuǎn)了。

責(zé)任編輯:梁菲 來源: 造就
相關(guān)推薦

2021-01-25 16:25:16

人工智能機器人自動駕駛

2020-03-25 14:00:00

?人工智能AI技術(shù)

2021-05-18 10:52:10

人工智能

2025-01-07 15:15:05

2022-09-22 11:25:14

人工智能數(shù)字自我防御機器學(xué)習(xí)

2022-09-08 09:23:36

人工智能AI

2022-02-15 13:14:37

人工智能神經(jīng)網(wǎng)絡(luò)

2020-07-16 07:45:13

人工智能技術(shù)機器人

2017-03-16 16:08:11

人工智能設(shè)定目標(biāo)

2021-04-13 17:41:04

人工智能機器人大數(shù)據(jù)

2017-01-23 10:43:35

2022-06-20 14:52:36

人工智能ROI

2020-03-10 12:14:24

人工智能機器人AI

2020-04-06 13:30:03

機器學(xué)習(xí)算法AI

2022-07-29 11:52:12

人工智能智能設(shè)備硬件

2022-07-04 15:29:59

人工智能機器計算機

2021-08-22 15:09:02

人工智能機器技術(shù)

2016-11-16 09:35:44

IBM POWER 服

2021-10-18 09:21:42

人工智能AI

2021-07-19 10:33:21

人工智能工程人工智能AI
點贊
收藏

51CTO技術(shù)棧公眾號