偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

人工智能:對抗種族主義的下一個前沿?

人工智能
如果是在早些年,說計算機程序存在偏見似乎聽起來荒謬的。但是,現(xiàn)在不一樣了……

[[350644]]

距離全球被喬治·弗洛伊德(George Floyd)被跪害慘案震驚僅僅過了三個月。在美國的集體記憶中,白人警官跪在黑人公民身上8分鐘46秒的畫面仍然歷歷在目。

這并不是美國首例種族歧視的警察暴行。不幸的是,它也不是最后一個。

種族主義在這個國家有很深的淵源。這是一種潰爛的傷口,要么被忽略,要么用感染性藥物治療。美國的制度種族主義沒有盡頭,而且更糟的是,這種疾病正在尋找新的傳播途徑。

甚至被認為是現(xiàn)代歷史上最大的技術突破之一的人工智能,也繼承了一些在社會上普遍存在的偏見。

AI可以被偏見嗎?

如果是在早些年,說計算機程序存在偏見似乎聽起來荒謬的。畢竟,為什么任何軟件都會關心某人的種族、性別和膚色?但是那是在機器學習和大數(shù)據(jù)授權計算機做出自己的決定之前。

現(xiàn)在,算法正在增強客戶支持,重塑當代時尚,并為從法律和秩序到城市管理的所有流程都可以自動化的未來鋪平道路。

Namobot網(wǎng)站的邁克爾·雷諾茲(Michael Reynolds)解釋說:“我們面臨著一個非?,F(xiàn)實的機會,即AI反烏托邦。”該網(wǎng)站通過大數(shù)據(jù)和算法來生成博客名稱。 “包含人類解釋和認知評估的錯誤數(shù)據(jù)集會使機器學習模型將人類偏見轉(zhuǎn)化為算法。”

這不是遙不可及的事,但已經(jīng)在發(fā)生。

算法偏差的不幸示例

風險評估工具通常用于刑事司法系統(tǒng)中,以預測重罪犯再次犯罪的可能性。從理論上講,這種少數(shù)派報告類型的技術用于威懾未來的犯罪。但是,批評家認為這些程序會傷害少數(shù)群體。

ProPublica在2016年對其進行了測試,當時它檢查了7000多人的風險評分。該非營利組織分析了在佛羅里達州布勞沃德縣被捕了兩年以上的囚犯的數(shù)據(jù),以了解在接下來的幾年中誰被指控犯有新罪行。

結果表明許多人已經(jīng)過于擔心了。根據(jù)該算法,黑人被告犯罪的可能性是白人的兩倍。但事實證明,只有20%的人預計會從事犯罪活動。

同樣,警察使用的面部識別軟件最終會嚴重影響非裔美國人。根據(jù)美國聯(lián)邦調(diào)查局(FBI)合著的一項研究,在西雅圖等城市使用的面部識別對黑人的準確性可能較低,從而導致身份識別錯誤和誤捕。

算法偏差不僅限于司法系統(tǒng)。黑人通常被剝奪了為改善患有復雜疾病的患者提供醫(yī)療服務的程序。同樣,在相同疾病下,與白人患者相比,這些程序不太可能將黑人患者轉(zhuǎn)介給黑人患者。

簡而言之,科技公司正在將自己的偏見注入系統(tǒng)。旨在做出基于數(shù)據(jù)的公平?jīng)Q策的確切系統(tǒng)。

那么,如何解決這種情況呢?

透明度是關鍵

算法偏差是一個復雜的問題,主要是因為很難觀察到。程序員常常困惑于發(fā)現(xiàn)他們基于性別和膚色對人的歧視算法。去年,史蒂夫·沃茲尼亞克(Steve Wozniak)透露,蘋果給他的信用額度是他妻子的10倍,盡管她的信用評分更高。

消費者很少會發(fā)現(xiàn)這種差異。審查人工智能部分歧視的研究也需要大量時間和資源。因此,倡導者要求在整個系統(tǒng)的運行方式上提高透明度。

該問題值得在全行業(yè)范圍內(nèi)解決,但在此過程中仍存在障礙。即使發(fā)現(xiàn)算法存在偏差,企業(yè)也不允許其他人分析數(shù)據(jù),并且調(diào)查不夠徹底。蘋果公司表示將調(diào)查沃茲尼亞克問題,但到目前為止沒有任何進展。

提高透明度將要求企業(yè)向觀察員透露他們的訓練數(shù)據(jù)或接受第三方審核。程序員還可以選擇主動進行測試,以確定將其系統(tǒng)應用到屬于不同背景的個人時的方式。

為了確保一定程度的透明度,用于訓練AI的數(shù)據(jù)和用于評估AI的數(shù)據(jù)應公開。在政府事務上,做到這一點應該更容易。但是,企業(yè)界會拒絕這種想法。

數(shù)據(jù)多元化

根據(jù)紐約大學研究中心發(fā)表的一篇論文,人工智能缺乏多樣性已經(jīng)到了“思考的時刻”。研究表明,由于這個原因,AI領域絕大多數(shù)是白人和男性,因此有重新確立權力失衡和歷史偏見的風險。

該報告的作者凱特·克勞福德解釋說:“AI行業(yè)必須承認局勢的嚴重性,并承認其現(xiàn)有方法未能解決這些問題。”

由于Facebook和Microsoft都擁有4%的黑人勞動力-很明顯,在AI領域中少數(shù)民族沒有得到公平的代表。研究人員和程序員是一群具有一定特權的同質(zhì)人群。

如果資源池多樣化,那么數(shù)據(jù)將更能代表我們所居住的世界。算法將獲得當前被忽略的觀點,并且AI程序的偏見將大大減少。

總結

是否有可能創(chuàng)建一種完全沒有偏見的算法?可能不會。

人工智能是由人類設計的,人們永遠不會真正偏見。但是,由優(yōu)勢群體的個人創(chuàng)建的程序只會幫助使針對少數(shù)群體的不公正現(xiàn)象長期存在。

為確保算法不會成為針對黑人和西班牙裔社區(qū)的壓迫工具,應推動公共和私人機構保持一定的透明度。

大型技術必須具有多樣性,并能提升屬于少數(shù)族裔的程序員,這也是當務之急。這樣的舉動可以拯救我們的社會,使其免于成為AI反烏托邦。

 

責任編輯:姜華 來源: 千家網(wǎng)
相關推薦

2019-04-11 13:00:40

人工智能AI醫(yī)療領域

2017-03-19 10:03:10

機器視覺人工智能

2023-06-12 10:42:39

人工智能機器學習

2022-04-02 21:34:43

人工智能自然語言機器學習

2023-02-28 15:21:37

人工智能AGI

2024-01-15 11:46:39

2023-09-05 15:02:12

人工智能電子商務

2024-11-14 06:00:00

多模態(tài)人工智能

2021-01-06 14:14:05

AI 知識圖譜

2023-04-18 14:16:48

2022-12-12 09:59:23

機器人人工智能

2024-03-29 14:03:00

數(shù)據(jù)分析人工智能情境智能

2020-08-20 10:53:13

人工智能技術互聯(lián)網(wǎng)

2015-11-16 13:57:22

2024-08-12 11:57:09

2016-01-20 13:03:59

身份驗證物聯(lián)網(wǎng)人工智能

2024-02-04 10:44:39

人工智能ARMR

2023-11-30 16:34:18

2025-10-24 17:33:52

2022-03-29 15:01:28

人工智能物聯(lián)網(wǎng)嵌入軟件
點贊
收藏

51CTO技術棧公眾號