人工智能還是人工智障?那些想不到的大型算法翻車(chē)現(xiàn)場(chǎng)
你相信算法嗎?
無(wú)論你的答案是什么,我們的生活已經(jīng)被算法徹底改變了——我們聊微信、刷抖音、逛淘寶的背后都是無(wú)數(shù)個(gè)算法在支撐,算法從開(kāi)始簡(jiǎn)單的 If、then、else 規(guī)則變成了越來(lái)越復(fù)雜以至于連程序員也不清楚內(nèi)部運(yùn)作規(guī)則的深度神經(jīng)網(wǎng)絡(luò),它在變得復(fù)雜的同時(shí)也在徹底的變革每一個(gè)產(chǎn)業(yè),人們離不開(kāi)算法,媒體喜歡算法,在一個(gè)個(gè)故事的渲染下,算法似乎變得無(wú)所不能,衛(wèi)夕今天先帶大家一起看一些算法讓人嘆為觀止的案例——
1.近年來(lái)美國(guó)馬里蘭州等地出現(xiàn)一種新型的毒品犯罪:在豪宅里關(guān)起門(mén)來(lái),利用 LED 燈種大麻。
在美帝,沒(méi)有證據(jù)根本不可能破門(mén)搜查,警察非常頭疼,然而在 2010 年一個(gè)警察局通過(guò)電力公司搞到了當(dāng)?shù)刂悄茈姳淼臄?shù)據(jù),通過(guò)對(duì)用電量和用電模式的算法分析,他們成功地判斷并抓到了一批毒販!
2.2017 年,硅谷的一位工程師想去 Reddit 工作,他思路清奇——首先寫(xiě)了一篇水平很高的、關(guān)于如何改進(jìn) Reddit 推薦算法的文章,接著他通 Reddit 網(wǎng)站 CEO 霍夫曼在 Facebook 公開(kāi)賬號(hào)、尋找到一些獨(dú)特的廣告定向,比如霍夫曼的性別、年齡、居住地、關(guān)注了哪些主頁(yè)等等,然后他通過(guò) Facebook 的廣告系統(tǒng)、使用這些定向算法把自己寫(xiě)的文章投放給了 197 個(gè)人,居然就精準(zhǔn)命中了霍夫曼,而這次推廣僅僅花了他 10.6 美元,最后他的文章被霍夫曼認(rèn)可,而他也被成功錄取。
3.2012 年 7 月,一位憤怒的爸爸走進(jìn)了美國(guó)零售巨頭塔吉特的弗吉尼亞分店,要求見(jiàn)經(jīng)理,原因是他還在上高中的女兒收到了塔吉特寄送給她女兒的嬰兒床和嬰兒衣服的優(yōu)惠券——“你們這是什么意思?我的女兒只有 16 歲,你們是在鼓勵(lì)她懷孕嗎?”
塔吉特的經(jīng)理匆忙道歉表示可能是他們的工作失誤,然而 2 個(gè)月后,這位父親打電話過(guò)來(lái)為自己之前的行為表示抱歉——她女兒的確懷孕了,原來(lái),塔吉特設(shè)計(jì)的一套特別的算法系統(tǒng),它會(huì)根據(jù)零售用戶的購(gòu)買(mǎi)歷史來(lái)判斷一個(gè)女生是否處于孕育期,這個(gè)算法是如此準(zhǔn)確,以至于它居然比孩子的父親更早地知道女孩是否懷孕。
的確,這三個(gè)故事只是算法應(yīng)用的冰山一角,如今,算法可以識(shí)別我們的聲音和圖像,算法似乎在變得無(wú)所不能。
然而,算法真的有那么美好嗎,在算法給我們帶來(lái)便利的同時(shí)我們是否真的認(rèn)真思考過(guò)算法帶來(lái)的弊端,我們是否真的思考過(guò)如何面對(duì)算法給可能給我們帶來(lái)的災(zāi)難。
今天的算法其實(shí)還遠(yuǎn)沒(méi)有到完善的地步,很多被稱(chēng)之為人工智能的東西某種意義上只能算人工智障,衛(wèi)夕帶大家看幾個(gè)大型算法翻車(chē)現(xiàn)場(chǎng)——
一、翻車(chē)的超級(jí)計(jì)算機(jī)
2017 年 3 月 19 日,香港地產(chǎn)大亨李建勤(Li Kin-Kan)在迪拜飯店的午餐中第一次遇見(jiàn)到了意大利金融家科斯塔(Raffaele Costa ),科斯塔向李描述了一個(gè)機(jī)器人對(duì)沖基金,他的基金由奧地利的 AI 公司 42.CX 開(kāi)發(fā)的一款名為 K1 的超級(jí)計(jì)算機(jī)管理,K1 通過(guò)抓取實(shí)時(shí)新聞和社交媒體的數(shù)據(jù),以深度學(xué)習(xí)算法評(píng)估投資者的情緒并預(yù)測(cè)美國(guó)股票期貨,然后發(fā)送指令進(jìn)行交易。
香港地產(chǎn)大亨李建勤(Li Kin-Kan)
李看到之后非常感興趣,在接下來(lái)的幾個(gè)月中,Costa 與 Li 共享了 K1 的模擬結(jié)果,數(shù)據(jù)表明 K1 取得了超過(guò)兩位數(shù)的回報(bào),李很興奮,把自己的 25 億美元的資產(chǎn)交給了 K1 來(lái)打理,準(zhǔn)備在金融市場(chǎng)中大賺一筆。
然而現(xiàn)實(shí)是殘酷的,超級(jí)計(jì)算機(jī) K1 并沒(méi)有給李帶來(lái)豐厚的回報(bào),相反到 2018 年 2 月,它經(jīng)常虧損,甚至一天有時(shí)候就虧損超過(guò) 2000 萬(wàn)美元,李建勤終于明白算法在金融市場(chǎng)是不起作用的,他一怒之下將科斯塔告上了法庭,聲稱(chēng)他夸大了超級(jí)計(jì)算機(jī)的作用。
二、失控的亞馬遜智能助手
2017 年 7 月 5 日,德國(guó)漢堡一名叫奧利弗的普通居民在朋友家住了一個(gè)晚上,他不知道的是,在他離開(kāi)的那個(gè)晚上,家里的亞馬遜智能音箱 Alexa 突然開(kāi)始在凌晨1:50 以最高的音量開(kāi)始播放搖滾樂(lè),熟睡的鄰居被震天的音箱吵醒,無(wú)奈的鄰居們最終只能選擇報(bào)警。
警察到達(dá)現(xiàn)場(chǎng)選擇撬開(kāi)門(mén)鎖破門(mén)而入,才發(fā)現(xiàn)罪魁禍?zhǔn)字皇且粋€(gè)小小的智能音箱,他們拔下了 Alexa 的插頭,然后給奧利弗安裝了新的鎖,而在朋友家過(guò)了一夜的奧利弗對(duì)此事件一無(wú)所知,再次回到家時(shí),一頭霧水的奧利弗只能跑一趟警局并且支付了一筆并不便宜的換鎖賬單。
無(wú)獨(dú)有偶,2017 年 1 月,加利福尼亞州的 CW6 電視頻道報(bào)道了一個(gè) Amazon Echo 揚(yáng)聲器的漏洞,說(shuō)的是 Alexa 識(shí)別不了家里的成員,于是一位加州 5 歲的小女孩就用智能音箱給自己買(mǎi)了超過(guò) 300 美元的餅干,當(dāng)他們父母收到貨的時(shí)候都傻眼了,而讓人啼笑皆非的是,主持人播這條新聞的時(shí)候?yàn)榱搜菔菊f(shuō)了一句:“Alexa,給我訂購(gòu)一個(gè)玩具屋”,結(jié)果圣地亞哥多人報(bào)告說(shuō),他們的音箱收到了電視的語(yǔ)音真的下單購(gòu)買(mǎi)了玩具屋,亞馬遜后來(lái)不得不為此道歉。
三、 變壞的微軟機(jī)器人
2016 年 3 月,微軟在 Twitter 上開(kāi)發(fā)了一個(gè)名為 Tay 的 AI 聊天機(jī)器人,該機(jī)器人是通過(guò)挖掘網(wǎng)民對(duì)話而構(gòu)建的,Tay 的第一句話是“ hellooooooo world !!!”,起初它善解人意、活潑可愛(ài),和 Twitter 上的網(wǎng)民聊得非常開(kāi)心。
然而,在短短的 12 小時(shí)之后,Tay 從一位友好的機(jī)器人變成了一個(gè)滿嘴臟話、充滿種族主義并說(shuō)出“女權(quán)主義者都應(yīng)該死在地獄里燒死”惡魔機(jī)器人,這讓開(kāi)發(fā)它的微軟經(jīng)歷了場(chǎng)公關(guān)噩夢(mèng),微軟被迫迅速將 Tay 關(guān)閉,而這離它上線還沒(méi)有超過(guò) 24 小時(shí);
Tay 是人工智能映射人類(lèi)偏見(jiàn)的一個(gè)縮影,目前的人工智能算法最本質(zhì)的規(guī)則就是它需要有大量的數(shù)據(jù)對(duì)其進(jìn)行訓(xùn)練——如果訓(xùn)練的數(shù)據(jù)本身就帶著偏見(jiàn)、錯(cuò)誤以及極端的思想,訓(xùn)練的結(jié)果就會(huì)偏離正常的結(jié)果........
四、危險(xiǎn)的沃森癌癥機(jī)器人
2013 年,IBM 與德克薩斯大學(xué) MD 安德森癌癥中心合作開(kāi)發(fā)“Watson for Oncology”,即沃森的癌癥機(jī)器人,它的目標(biāo)是識(shí)別并治愈癌癥,IBM 在新聞稿中宣稱(chēng)“沃森癌癥機(jī)器人的使命是讓臨床醫(yī)生能夠從癌癥中心豐富的患者和研究數(shù)據(jù)庫(kù)中發(fā)現(xiàn)寶貴的見(jiàn)解 ”,然而最后的結(jié)果怎么樣呢?
新聞機(jī)構(gòu) StatNews 在 2018 年 7 月查閱了 IBM 的內(nèi)部文件,發(fā)現(xiàn) IBM 的 Watson 有時(shí)候會(huì)給醫(yī)生提出錯(cuò)誤的、甚至是危險(xiǎn)的癌癥治療建議,其中包括 Watson 建議醫(yī)生給有嚴(yán)重出血癥狀的癌癥患者使用會(huì)加重出血的藥物........
于是 2017 年 2 月,在花費(fèi)了 6200 萬(wàn)美元之后,德克薩斯大學(xué)宣布終止和 IBM 合作的這個(gè)項(xiàng)目,算法有時(shí)候?qū)︶t(yī)療行業(yè)而言并不管用。
五、充滿歧視的再犯罪算法
在美國(guó),罪犯在出獄之前會(huì)進(jìn)行一個(gè)再犯罪的評(píng)估,用于判斷是否合適出獄已經(jīng)出獄后是否需要采取必要監(jiān)視措施。
那么如何評(píng)估一個(gè)罪犯的再犯罪概率呢?答案是——算法!美國(guó)司法體系采用了一家名為 Northpointe 的公司推出的風(fēng)險(xiǎn)評(píng)估產(chǎn)品,Northpointe 的核心產(chǎn)品是根據(jù) 137 個(gè)問(wèn)題的答案通過(guò)特定的算法得出的一組分?jǐn)?shù),這些問(wèn)題一些是和罪犯本身相關(guān)的直接個(gè)人信息,比如之前犯罪的類(lèi)型、日期、頻率、出生年月、性別等等,有一些則是提問(wèn)由罪犯本人回答,比如“您的父母或者兄弟姐妹中有一個(gè)曾經(jīng)被送進(jìn)監(jiān)獄或監(jiān)獄嗎?”、“您有多少朋友碰過(guò)大麻?”、“你是否同意饑餓的人有權(quán)偷竊?”之類(lèi)的問(wèn)題。
值得注意的是,在這些問(wèn)題中種族不是問(wèn)題之一,即所有的這些問(wèn)題都不會(huì)提及罪犯的種族。
然而近年有學(xué)者發(fā)現(xiàn),該算法給黑人帶來(lái)的高再犯風(fēng)險(xiǎn)評(píng)分是白人的兩倍,在洛杉磯市,一名輕微犯罪的黑人婦女被標(biāo)記為“高風(fēng)險(xiǎn)”,而一名曾兩次武裝搶劫的白人被標(biāo)記為“低風(fēng)險(xiǎn)”,而結(jié)果也證明那位婦女并沒(méi)有犯罪,但那名男子則繼續(xù)進(jìn)行盜竊,這一風(fēng)險(xiǎn)評(píng)估產(chǎn)品目前在美國(guó)引起了黑人團(tuán)體廣泛的質(zhì)疑。
六、形形色色的人工智障
事實(shí)上,算法造成的啼笑皆非甚至危險(xiǎn)的故事廣泛存在,至少在現(xiàn)階段,在很多領(lǐng)域,人工智能在某些時(shí)候只能稱(chēng)之為人工智障——
美國(guó) 911 以后反恐成為國(guó)家安全的重點(diǎn),美國(guó)安全部門(mén)會(huì)根據(jù)姓名、出生地、宗教信仰、人臉識(shí)別算法、歷史行為數(shù)據(jù)——例如所有旅行數(shù)據(jù)等等,會(huì)對(duì)每一位航空旅客是恐怖分子的嫌疑度進(jìn)行打分,而經(jīng)常出現(xiàn)一些無(wú)辜的人因?yàn)橐伤瓶植婪肿?,而?jīng)常在機(jī)場(chǎng)被羈留檢查,多次錯(cuò)過(guò)飛機(jī),這樣的事件每年會(huì)超過(guò) 500 起。
谷歌的安卓系統(tǒng)會(huì)自帶一個(gè) App——Photos,這個(gè)加入了人工智能算法的應(yīng)用能自動(dòng)識(shí)別人臉、物品等,功能十分強(qiáng)大,然而 2015 年 6 月,一位網(wǎng)民在 Twitter 上發(fā)帖稱(chēng):“谷歌,我的女朋友不是大猩猩”,原來(lái),谷歌 Photos 將他女朋友的照片識(shí)別成了大猩猩。
Facebook 具有一項(xiàng)稱(chēng)為“回憶”的功能,可以向用戶突出顯示前幾年在此日期發(fā)生的事情,想起令人難忘的回憶,但 Facebook 還是低估了一些極端情況,例如它會(huì)在家人死亡的周年紀(jì)念日顯示家人的照片,或者它可能會(huì)要求自己向已經(jīng)去世的朋友說(shuō)生日快樂(lè)。
2011 年,一本有關(guān)蒼蠅的生物學(xué)教科書(shū)在亞馬遜上的定價(jià)為 2300 萬(wàn)美元。后來(lái)發(fā)現(xiàn)原因是兩個(gè)賣(mài)家,他們?cè)O(shè)置了算法來(lái)觀察彼此的價(jià)格,然后重置自己的價(jià)格。
2012 年,《華爾街日?qǐng)?bào)》報(bào)道了辦公用品公司史泰博的算法歧視行為,史泰博先判斷用戶所在的位置附近有沒(méi)有賣(mài)很多賣(mài)辦公用品的實(shí)體店,如果 20 公里之內(nèi)沒(méi)有,則判斷用戶大概率只能在網(wǎng)上買(mǎi),于是它的網(wǎng)上商城就會(huì)給這些顧客顯示一個(gè)很高的價(jià)格,在這個(gè)場(chǎng)景里,它針對(duì)的不是一個(gè)人,而是這個(gè)區(qū)域里的一群人,即使附近的人互相交流也看不出來(lái)。
中國(guó)很多城市的智能交通攝像頭配備了人工智能算法,用來(lái)檢測(cè)和識(shí)別在紅燈時(shí)亂穿馬路者,然而最近寧波的攝像頭意外曝光了格力總裁董明珠亂穿馬路的照片,原來(lái)攝像頭將董明珠在公交車(chē)廣告上的頭像識(shí)別成了行人。
2018 年 3 月 20 日凌晨,Uber 公司在美國(guó)坦佩市進(jìn)行自動(dòng)駕駛道路測(cè)試時(shí),撞到一名叫伊萊恩的 49 歲中年女子,致后者當(dāng)場(chǎng)死亡,當(dāng)時(shí),伊萊恩正走在人行橫道,汽車(chē)在發(fā)生撞擊前 5.6 秒鐘將其錯(cuò)誤識(shí)別為汽車(chē),撞擊前 5.2 秒時(shí)又將其識(shí)別為其他物體,此后系統(tǒng)發(fā)生了混亂,在“汽車(chē)”和“其他”之間搖擺不定,浪費(fèi)了大量的時(shí)間,因此車(chē)輛沒(méi)有及時(shí)剎車(chē),釀成悲劇。
好,看到了如此多“人工智能”變“人工智障”的車(chē)禍現(xiàn)場(chǎng),我們需要思考的是——這些匪夷所思的問(wèn)題是如何產(chǎn)生的?看過(guò)衛(wèi)夕長(zhǎng)文的朋友都會(huì)很熟悉,衛(wèi)夕通常更感興趣的是背后那個(gè)更加深層次的底層邏輯,接下來(lái)我們就一起看一看算法故障背后的原因,我把它總結(jié)為三類(lèi)——
1. 算法本身或者算法背后的人產(chǎn)生技術(shù)錯(cuò)誤——只要是人寫(xiě)的算法,就一定有出錯(cuò)的概率,比如德國(guó)居民那個(gè)凌晨發(fā)飆的智能音箱、失控的 Uber 自動(dòng)駕駛汽車(chē)就是程序上的 Bug 導(dǎo)致的,這一類(lèi)我們克服的辦法其實(shí)相對(duì)簡(jiǎn)單。但對(duì)于另一種人為算計(jì)消費(fèi)者的算法有時(shí)候可能我們就無(wú)能為力了,比如上邊的辦公用品網(wǎng)站史泰博的價(jià)格歧視;滴滴曾經(jīng)也被公眾投訴“同一段距離不同的人打車(chē)價(jià)格不一致”的“大數(shù)據(jù)殺熟”現(xiàn)象,無(wú)論真實(shí)與否,這類(lèi)問(wèn)題往往很難識(shí)別,因此也加大了監(jiān)管的難度。
2. 算法對(duì)于人性部分的忽略——你可能聽(tīng)過(guò)這個(gè)段子:一個(gè)美女通過(guò)一個(gè)最現(xiàn)代的人工智能設(shè)備找男朋友,輸入條件是:
- 要帥;
- 有車(chē),人工智能給出的結(jié)果是象棋;
這盡管是一個(gè)段子,但從某種意義上也說(shuō)明了現(xiàn)在的人工智能離真正理解人類(lèi)的感情和行為依然有巨大的鴻溝,Facebook 提醒你給去世的親人發(fā)生日祝福背后本質(zhì)的原因在于 AI 無(wú)法真正理解死亡對(duì)于人類(lèi)意味著什么。
3. 算法訓(xùn)練數(shù)據(jù)本身的偏見(jiàn)——目前人工智能的基本邏輯是先構(gòu)建一個(gè)合適的機(jī)器學(xué)習(xí)模型,然后用大量的數(shù)據(jù)去訓(xùn)練模型,然后用訓(xùn)練好的模型再來(lái)預(yù)測(cè)新的數(shù)據(jù),這里邊有一個(gè)非常重要前提就是輸入數(shù)據(jù)的重要性,比如上邊再犯罪率的預(yù)測(cè)之所以產(chǎn)生問(wèn)題就是因?yàn)檩斎氲臄?shù)據(jù)中本身就存在偏見(jiàn),如果現(xiàn)實(shí)世界數(shù)據(jù)本身就存在偏見(jiàn),那么預(yù)測(cè)結(jié)果也一定會(huì)有偏見(jiàn)。
總結(jié)一下,人工智能的大趨勢(shì)必然會(huì)繼續(xù)發(fā)展,但我們也需要清醒地意識(shí)到它現(xiàn)階段的局限性和問(wèn)題,不要夸大和渲染它的神奇性,如何從系統(tǒng)的角度解決算法帶來(lái)的這些匪夷所思的問(wèn)題,歡迎在留言區(qū)發(fā)表你的看法!