偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

人工智能(AI)可信嗎?

人工智能
毫無疑問,AI肯定有它的價值,但隨著一些出錯的算法、隱藏的歧視,以及罪犯對AI的濫用,甚至是執(zhí)法和情報機關對隱私窺探,反對AI的聲音越來越強烈。

?人工智能比智能更人工

2022年6月,微軟發(fā)布了微軟責任人工智能標準v2,其發(fā)布目的是“定義負責任人工智能的產(chǎn)品開發(fā)需求”。也許令人感到驚訝,該文件只提到了人工智能中的一種偏差,即微軟的算法開發(fā)人員需要意識到,過度依賴人工智能的用戶可能會提出的問題(亦稱為“自動化歧視”)。

簡而言之,微軟似乎更關心用戶針對其產(chǎn)品的看法,而不是產(chǎn)品實際上對用戶產(chǎn)生的不利影響。這是良好的商業(yè)責任(不要對我們的產(chǎn)品說任何負面的話),但社會責任較差(有許多例子表明算法歧視對個人或個人群體產(chǎn)生負面影響)。

商業(yè)人工智能有三個尚未解決的主要問題:

  • 隱藏的偏差造成虛假結(jié)果;
  • 被用戶或攻擊者濫用的可能性;
  • 算法返回太多的誤報,以至于抵消了自動化的價值。 

學術界的擔憂

當人工智能首次被引入網(wǎng)絡安全產(chǎn)品時,它被描述為防護銀彈。毫無疑問,AI肯定有它的價值,但隨著一些出錯的算法、隱藏的歧視,以及罪犯對AI的濫用,甚至是執(zhí)法和情報機關對隱私窺探,反對AI的聲音越來越強烈。

根據(jù)在2022年6月6日《科學美國人》的說法,問題在于一門仍在發(fā)展的科學的商業(yè)化:

人工智能領域最大的研究團隊不在學術界,而是出現(xiàn)在企業(yè)中。在學術界,同行評議是王道。與大學不同,企業(yè)沒有公平競爭的動機。他們不是將新的學術論文提交學術審查,而是通過新聞稿吸引記者,并跨過同行評議流程。我們只知道企業(yè)想讓我們知道的。

--紐約大學心理學和神經(jīng)科學教授加里·馬庫斯

結(jié)果就是,我們只聽到了人工智能的積極方面,但沒有聽到人工智能的消極方面。

喬治敦法學院隱私與技術中心執(zhí)行主任艾米莉·塔克也得出了類似的結(jié)論:“從今天開始,我們中心將停止在工作中使用術語‘人工智能’、‘AI’和‘機器學習’,以暴光并減輕數(shù)字技術在個人和社區(qū)生活中的危害……作為獲得資本的一種戰(zhàn)略手段,科技公司如此成功地扭曲圖靈測試的原因之一,在于政府渴望獲得科技所賦予的無處不在的監(jiān)督權。這種監(jiān)督權行使起來方便、成本也相對便宜,并且可以通過規(guī)避民主決策或監(jiān)督的采購流程獲得?!?/p>

簡而言之,對利潤的追求阻礙了人工智能的科學發(fā)展。面對這些擔憂,我們需要問問自己,是否可以相信產(chǎn)品中的人工智能輸出的是準確的信息和沒有偏差的判斷,而不是被人們、罪犯,甚至是政府所濫用。

人工智能的失敗

案例1:一輛特斯拉自動駕駛汽車直接駛向一名手持停車標志的工人,只有在司機進行干預時才會減速。原因在于,人工智能被訓練識別人類和識別停車標志,但沒有被訓練識別攜帶停車標志的人類。

案例2:2018年3月18日,一輛優(yōu)步自動駕駛汽車撞死了一名推著自行車的行人。根據(jù)NBC當時的說法,人工智能無法“將物體歸類為行人,除非該物體靠近人行橫道”。

案例3:2020年英國新冠肺炎封閉期間,學生們的考試成績由人工智能算法來評判。大約40%的學生成績比預期的要低得多。這是因為,算法過分重視各學校的歷史成績。因此,相比其他學校,私立學校和以前成績優(yōu)異的公立學校的學生獲得了很大的評分優(yōu)勢。

案例4:Tay是微軟于2016年在Twitter上推出的一款人工智能聊天機器人,通過模仿真實人類的語言,Tay的目標是成為一個可以理解俚語的智能交互系統(tǒng)。但在短短的16個小時的真人互動之后,Tay就被迫下線。它在推特上寫道“希特勒憎恨猶太人是正確的”。

案例5:選擇候選人。亞馬遜希望AI幫助其自動選擇填補職位空缺的候選人,但該算法的結(jié)果是性別歧視和種族歧視,偏向白人、男性。

案例6:錯誤的身份。新冠疫情封閉期間,一支蘇格蘭足球隊在線直播了一場比賽,使用的是基于人工智能的攝像頭跟蹤足球。但這個AI拍攝系統(tǒng)不斷地把邊裁的光頭當做足球,拍攝焦點總是集中在這位邊裁身上,而不是比賽。

案例7:申請拒絕。2016年一位母親申請昏迷半年后醒來的兒子搬進她所居住的公寓,卻遭到住房中心的拒絕。兒子被送到康復中心一年之后,才通過律師弄清原因。住房中心使用的人工智能認為兒子有盜竊記錄,所以將其列入住房黑名單。但實際上兒子一直臥病在床,根本無法實施犯罪。

類似的例子還有很多,究其原因無非兩種,一是由意外偏差引起的設計失敗,二是學習失敗。自動駕駛汽車的案例是學習失敗。雖然隨著學習次數(shù)的增加可以校正錯誤,但在校正之前,一旦投入使用可能要付出沉重的代價。但如果想完全避免風險的話,意味著永遠也無法投入使用。

案例3和案例5則屬于設計失敗,意料之外的偏差扭曲了結(jié)果。問題在于,開發(fā)人員是否能夠在不知道自己存在偏見的情況下,去除他們的偏見。

人工智能的誤用和濫用

誤用意味著人工智能的應用效果并非開發(fā)人員的本意。濫用則意味著故意去做,例如污染喂給人工智能的數(shù)據(jù)。一般而言,誤用通常由AI產(chǎn)品所有者的行為,而濫用往往涉及第三方(如網(wǎng)絡罪犯)的行為,導致產(chǎn)品受到并非所有者本意的操縱。我們先來看看誤用的情況。

誤用

Vectra AI的研究負責人Kazerounian認為,當人類開發(fā)的算法試圖對其他人進行判斷時,隱藏的偏差是不可避免的。比如在信用申請和租賃申請方面,美國有著悠久的紅線和種族主義歷史,這些歧視政策在基于人工智能的自動化之前早已存在。

而且,當偏見深入到人工智能算法中時,比起人的偏見,更難發(fā)現(xiàn)和理解?!澳阋苍S可以在深度學習模型中看到矩陣運算得出的分類結(jié)果。但人們只能解釋運算的機制,卻解釋不了原因。它只是解釋了機制。我認為,站在更高的層面上,我們必須問的是,有些事適合交給人工智能去做嗎?”

2022年5月11日,麻省理工學院與哈佛大學發(fā)表在《柳葉刀》上的一項研究,證實了人們無法理解深度學習是如何得出結(jié)論的。該研究發(fā)現(xiàn),人工智能僅依靠醫(yī)學圖像(如X射線和CT掃描),就能夠識別種族,但沒有人知道AI是如何做到這一點的。再往后想一下,在確定患者的人種、族裔、性別甚至是否被監(jiān)禁等方面,AI醫(yī)療系統(tǒng)的做法可能要遠超我們的想象。

哈佛醫(yī)學院醫(yī)學副教授、作者之一安東尼·塞利評論道,“僅僅因為你的算法中有不同群體的表征(數(shù)據(jù)的質(zhì)量和有效性),并不能保證它可以永遠如此,也不能保證它會放大已有的差異和不平等。用表征學習為算法提供更多數(shù)據(jù)并非萬靈藥。這篇論文應該讓我們停下來,真正重新考慮我們是否準備好將人工智能應用在臨床診斷?!?/p>

這個問題也波及到了網(wǎng)絡安全領域。2022年4月22日,微軟在其產(chǎn)品路線圖中添加了一個名為“離職者分類器”的功能。該產(chǎn)品預計將于2022月9月上市?!半x職者分類器可以早期檢測出意圖離開組織的員工,以減少由于員工離職帶來的有意或無意的數(shù)據(jù)泄露風險?!?/p>

當有媒體嘗試以人工智能與個人隱私為主題采訪微軟時,卻得到了這樣的回答:“微軟目前沒有什么可以分享的,但如果有新消息我們會讓你及時了解。”

在倫理方面,必須考慮的是,用AI來做離職的意圖推測,是否是對技術的正確使用。至少大多數(shù)人認為,通過監(jiān)控通信來確定某人是否正在考慮離職,是一件正確或合適的事情,尤其是結(jié)果可能造成負面影響。

而且,算法中的意外偏差很難避免,甚至更難檢測。既然預測某人是否會離職,連人類都難以有效判斷個人動機,為什么人工智能系統(tǒng)就不會犯錯呢?而且,人們在工作中的溝通有著各種說話的方式,假設、玩笑、氣憤,或者談論他人。即便是去招聘網(wǎng)站更新簡歷,也可能只是腦中的一個閃念。一旦被機器學習判定為高離職可能性的員工,那就很可能在經(jīng)濟衰退時首先要解雇的人員,并與加薪或升職無緣。

還有一個更為廣泛的可能性。如果企業(yè)可以擁有這種技術,執(zhí)法機構(gòu)和情報機構(gòu)自然也會有。同樣的判斷錯誤也可能發(fā)生,而且后果要比升職加薪嚴重的多。

濫用

Adversa.ai的創(chuàng)始人兼首席執(zhí)行官亞歷克斯·波利亞科夫,則更擔心通過操縱機器學習過程對AI的濫用?!巴ㄟ^科學家們進行的研究,以及我們的人工智能紅隊(指扮演攻擊方的角色)的真實評估工作都可以證明,愚弄人工智能的決策,不管是計算機視覺還是自然語言處理或者是其他任何事情,修改一組非常小的輸入就足夠了?!?/p>

比如,“eats shoots and leaves”這幾個單詞,只需加上不同的標點符號,就可以表示素食者或是恐怖分子。對于人工智能來說,想要窮盡所有單詞在所有語境下的含義,幾乎是一個不可能的任務。

此外,波利亞科夫已經(jīng)先后兩次證明了愚弄人臉識別系統(tǒng)是多么容易。第一次讓人工智能系統(tǒng)相信面前各種人都是埃隆·馬斯克,第二次的例子是用一張人類看上去明顯是同一張圖像,卻被人工智能解讀為多個不同的人。其中的原理,即操縱人工智能學習過程的原理,幾乎可以被網(wǎng)絡罪犯應用到任何人工智能工具。

歸根結(jié)底,人工智能只是人類教授的機器智能,我們離真正的人工智能還有很多年,即使我們不去討論真正的人工智能是否能實現(xiàn)。就目前而言,人工智能應該被當作一種將許多有規(guī)律的人類工作進行自動化處理的工具,畢竟它與人類一樣會有著類似的成功率和失敗率。當然,它的速度要快得多,而且成本也要比昂貴的分析師團隊低的多。

最后,不管是算法偏差還是AI被濫用,所有使用人工智能的用戶都應該考慮這樣一個問題:至少在目前階段,我們不能過度依賴人工智能的輸出結(jié)果。

責任編輯:趙寧寧 來源: 數(shù)世咨詢
相關推薦

2018-09-27 15:52:20

人工智能人類AI

2021-07-18 22:43:39

數(shù)據(jù)安全人工智能網(wǎng)絡安全

2018-06-02 16:40:58

TuringNet人工智能區(qū)塊鏈

2024-08-01 11:23:11

2021-08-12 21:10:30

人工智能AI

2019-12-26 14:30:18

人工智能AI機器人

2021-10-09 21:00:15

人工智能AI

2020-04-22 13:46:50

人工智能AI

2022-06-20 14:52:36

人工智能ROI

2021-04-24 22:48:23

人工智能機器人醫(yī)療

2020-06-29 16:42:41

人工智能

2021-06-24 13:20:29

人工智能AI

2022-07-04 15:29:59

人工智能機器計算機

2021-08-22 15:09:02

人工智能機器技術

2022-10-19 07:04:12

?人工智能云服務Alaas

2022-06-20 11:05:58

通用人工智能機器人

2016-11-16 09:35:44

IBM POWER 服

2021-10-18 09:21:42

人工智能AI

2020-12-03 11:07:17

AI芯片
點贊
收藏

51CTO技術棧公眾號