偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

人工智能如何增強(qiáng)現(xiàn)有的人類偏見(jiàn)?

人工智能
人工智能驅(qū)動(dòng)的系統(tǒng)的決策僅反映用于模型訓(xùn)練的輸入數(shù)據(jù)的類型。因此,如果 AI 模型吸收的數(shù)據(jù)集具有歧視性,則輸出推薦或決策將遵循相同的趨勢(shì)。

根據(jù)定義,人工智能 (AI) 旨在模擬人腦的工作機(jī)制以優(yōu)化組織活動(dòng)。 

[[421223]]

不幸的是,雖然我們已經(jīng)能夠更接近于人工地重新創(chuàng)造人類智能,但人工智能也表現(xiàn)出另一種獨(dú)特的人類特征——基于種族、民族或性別對(duì)某人的偏見(jiàn)。人工智能中的偏見(jiàn)并不是一個(gè)新概念。最近和過(guò)去都發(fā)現(xiàn)了醫(yī)療保健、執(zhí)法和招聘行業(yè)中存在偏見(jiàn)的算法示例。

因此,幾個(gè)世紀(jì)以來(lái)的不容忍和歧視不斷以一種或另一種形式出現(xiàn),即使世界似乎正在朝著對(duì)所有人包容的方向發(fā)展。要了解人工智能如何強(qiáng)化長(zhǎng)期存在的人類偏見(jiàn),我們需要找出偏見(jiàn)潛入人工智能模型和神經(jīng)網(wǎng)絡(luò)的方式。

用于訓(xùn)練 AI 模型的有偏數(shù)據(jù)集

人工智能驅(qū)動(dòng)的系統(tǒng)的決策僅反映用于模型訓(xùn)練的輸入數(shù)據(jù)的類型。因此,如果 AI 模型吸收的數(shù)據(jù)集具有歧視性,則輸出推薦或決策將遵循相同的趨勢(shì)。在初始機(jī)器學(xué)習(xí)階段,可以通過(guò)兩種方式創(chuàng)建有偏差的 AI 模型。首先,如前所述,用于訓(xùn)練 AI 模型的數(shù)據(jù)(總體上)是狹窄且有偏見(jiàn)的。其次,由于給定數(shù)據(jù)集中的樣本存在偏差,因此創(chuàng)建了判別算法。由于疏忽或因?yàn)閺氖掠?xùn)練過(guò)程的數(shù)據(jù)科學(xué)家本身保守、心胸狹窄,有偏見(jiàn),輸入數(shù)據(jù)可能很窄。

歧視性人工智能的最佳例子之一是臭名昭著的 COMPAS 系統(tǒng),該系統(tǒng)在美國(guó)多個(gè)州使用。人工智能驅(qū)動(dòng)的系統(tǒng)使用歷史監(jiān)獄數(shù)據(jù)庫(kù)和回歸模型來(lái)預(yù)測(cè)被釋放的罪犯將來(lái)是否有可能再次犯罪。正如預(yù)期的那樣,該系統(tǒng)的預(yù)測(cè)表明,與白種人相比,非洲裔美國(guó)人的再犯人數(shù)幾乎翻了一番。這種偏見(jiàn)的主要原因之一是,網(wǎng)絡(luò)管理員在分析其預(yù)測(cè)時(shí)從未嘗試檢測(cè)系統(tǒng)的歧視性暗示。通常,人工智能偏見(jiàn)的受害者是女性、特定地區(qū)的少數(shù)族裔或有移民背景的人。正如他們所說(shuō),人工智能的模型不會(huì)引入新的偏見(jiàn),而只是反映社會(huì)中已經(jīng)存在的偏見(jiàn)。

如上所述,機(jī)器訓(xùn)練的數(shù)據(jù)收集過(guò)程也可能存在偏差。在這種情況下,指定的 AI 治理官員會(huì)意識(shí)到所收集數(shù)據(jù)中的偏差,但仍會(huì)選擇忽略它。例如,在收集與招生背景相關(guān)的數(shù)據(jù)時(shí),學(xué)??赡苤贿x擇白人候選人。此外,學(xué)校可能只是拒絕為其他孩子提供學(xué)習(xí)機(jī)會(huì)。在可能是一個(gè)循環(huán)中,AI 模型可能會(huì)密切觀察學(xué)校選擇專門選擇白人學(xué)生的做法。稍后,該模型將繼承種族主義傳統(tǒng),因?yàn)槠淠J椒治鰞H表明這是學(xué)校招生期間的正確行動(dòng)方案。因此,盡管存在處理這一過(guò)程的尖端技術(shù),但種族主義仍被多次強(qiáng)化。

除了種族或性別歧視,人工智能中的偏見(jiàn)甚至可能以對(duì)富人的優(yōu)惠待遇的形式存在。因此,窮人在 AI 數(shù)據(jù)集中的代表性可能不足。在正在進(jìn)行的 COVID-19 時(shí)代,甚至可以想象出一個(gè)這樣的假設(shè)例子。一些國(guó)家開發(fā)了自己的移動(dòng)應(yīng)用程序,可用于跟蹤感染病毒的人,并提醒任何特定區(qū)域的其他人與這些人保持距離。雖然該計(jì)劃可能具有崇高的目的,但沒(méi)有智能手機(jī)的個(gè)人將在應(yīng)用程序中完全不可見(jiàn)。雖然這種類型的偏見(jiàn)不是任何人的錯(cuò),但它首先違背了設(shè)計(jì)此類應(yīng)用程序的目的。

綜上所述,歧視性的訓(xùn)練數(shù)據(jù)和操作實(shí)踐會(huì)直接導(dǎo)致人工智能系統(tǒng)和模型的偏差。

由于代理相關(guān)原因?qū)е碌娜斯ぶ悄芷?jiàn)

偏見(jiàn)滲入人工智能模型的另一種方式可能是通過(guò)代理。用于機(jī)器訓(xùn)練的一些細(xì)節(jié)和信息可能與受保護(hù)的特征相匹配。由此產(chǎn)生的偏差實(shí)例可能是無(wú)意的,因?yàn)橛糜谧龀隼硇院托?zhǔn)決策的數(shù)據(jù)可能最終作為類成員的代理。

例如,假設(shè)一家金融機(jī)構(gòu)使用人工智能系統(tǒng)來(lái)預(yù)測(cè)哪些貸款申請(qǐng)人可能難以還款。用于訓(xùn)練 AI 系統(tǒng)的數(shù)據(jù)集將包含跨越三個(gè)多世紀(jì)的歷史信息?,F(xiàn)在,此輸入數(shù)據(jù)不包含與申請(qǐng)人的膚色或性別相關(guān)的詳細(xì)信息。然而,假設(shè)系統(tǒng)預(yù)測(cè)居住在特定地點(diǎn)(與某個(gè)郵政編碼相關(guān)聯(lián))的人將拖欠他們的貸款分期還款。此預(yù)測(cè)僅根據(jù)歷史記錄生成。當(dāng)銀行因居住地而決定不批準(zhǔn)他們的貸款申請(qǐng)時(shí),居住在該地區(qū)的人可能會(huì)感到受到了歧視。人工智能中的這種偏見(jiàn)可以通過(guò)讓人類官員參與來(lái)消除,他們可以根據(jù)實(shí)際事實(shí)而不僅僅是歷史記錄推翻人工智能系統(tǒng)的決定。

除此之外,還有其他幾種產(chǎn)生偏見(jiàn)的人工智能的方式,然后在當(dāng)今時(shí)代繼續(xù)強(qiáng)化古老的偏見(jiàn)。有幾種方法可以徹底消除人工智能中的偏見(jiàn),或者至少在很大程度上減少偏見(jiàn)。

選擇更具代表性的數(shù)據(jù)集

人工智能如何增強(qiáng)現(xiàn)有的人類偏見(jiàn)?

組織中的每個(gè)人都需要努力降低其 AI 系統(tǒng)在工作中存在偏見(jiàn)的可能性。正如我們所見(jiàn),人工智能的偏見(jiàn)完全源于它為機(jī)器訓(xùn)練或其日常操作接收的數(shù)據(jù)類型。收集大量培訓(xùn)和運(yùn)營(yíng)數(shù)據(jù)的數(shù)據(jù)科學(xué)家和其他專家需要使用各種數(shù)據(jù),其中包括屬于所有種族和少數(shù)種族的人。在此類數(shù)據(jù)集中,女性必須與男性一樣多。此外,僅當(dāng)數(shù)據(jù)專家向類似分割的模型提供輸入數(shù)據(jù)時(shí),才應(yīng)存在 AI 模型中的分割。

此外,使用人工智能應(yīng)用的組織不得針對(duì)不同的種族和民族多樣性使用不同的模型。如果單個(gè)人群的數(shù)據(jù)不足,組織可以使用加權(quán)等技術(shù)來(lái)平衡其相對(duì)于其他人群的重要性。如果每個(gè)數(shù)據(jù)組沒(méi)有得到謹(jǐn)慎和同等權(quán)重的處理,就有可能在 AI 模型中產(chǎn)生偏見(jiàn)。

識(shí)別潛在的偏見(jiàn)觸發(fā)因素或來(lái)源

檢測(cè)某些類型的偏見(jiàn)可能進(jìn)入 AI 系統(tǒng)的區(qū)域和操作是任何組織中 AI 治理團(tuán)隊(duì)和執(zhí)行級(jí)別員工的主要責(zé)任。理想情況下,必須在將 AI 納入組織之前執(zhí)行此過(guò)程。組織可以通過(guò)檢查數(shù)據(jù)集并檢查它們是否會(huì)導(dǎo)致 AI 模型具有狹隘的“觀點(diǎn)”來(lái)減輕偏見(jiàn)。經(jīng)過(guò)徹底檢查后,組織必須進(jìn)行試運(yùn)行,以查看其 AI 系統(tǒng)是否在工作中表現(xiàn)出偏見(jiàn)。最重要的是,組織必須列出涵蓋所有有偏見(jiàn)的人工智能領(lǐng)域的問(wèn)題。然后,他們必須不斷尋找解決方案,以便一個(gè)接一個(gè)地回答這些問(wèn)題。

實(shí)施嚴(yán)格的人工智能治理指南

AI 治理團(tuán)隊(duì)在防止 AI 系統(tǒng)隨著時(shí)間的推移變得歧視方面發(fā)揮著關(guān)鍵作用。為了避免人工智能的偏見(jiàn),治理團(tuán)隊(duì)必須定期更新人工智能模型。更重要的是,團(tuán)隊(duì)?wèi)?yīng)該制定不可協(xié)商的法規(guī)和指南,以檢測(cè)和消除或至少減輕用于機(jī)器訓(xùn)練的輸入數(shù)據(jù)集的偏差。

除此之外,必須建立清晰的溝通渠道,以便組織中任何級(jí)別的員工都可以在收到客戶關(guān)于人工智能歧視的投訴時(shí)通知治理團(tuán)隊(duì)。即使員工自己發(fā)現(xiàn)他們組織的 AI 可能存在偏見(jiàn),這些渠道也會(huì)起作用。

人工智能中的偏見(jiàn)對(duì)于成為其決策犧牲品的個(gè)人或團(tuán)體來(lái)說(shuō)可能非常痛苦。更成問(wèn)題的是,有偏見(jiàn)的人工智能系統(tǒng)是人類歷史上不幸的受害者面臨數(shù)百年邊緣化和歧視的新一代象征。因此,我們必須通過(guò)確保模型訓(xùn)練和有能力的 AI 治理的不同輸入數(shù)據(jù)集來(lái)確保將算法偏差扼殺在萌芽狀態(tài)。歧視性 AI 是每個(gè)人的問(wèn)題,因此,組織中參與 AI 模型設(shè)計(jì)、實(shí)施和維護(hù)階段的所有各方都應(yīng)該聯(lián)合起來(lái)解決它。

 

責(zé)任編輯:姜華 來(lái)源: 千家網(wǎng)
相關(guān)推薦

2021-03-19 10:22:03

人工智能

2022-10-24 15:43:47

人工智能語(yǔ)言模式機(jī)器

2021-11-11 14:49:42

人工智能AI

2024-01-03 09:47:44

2023-08-30 16:04:13

人工智能AI

2022-06-22 11:11:48

人工智能AI

2022-06-08 10:29:28

人工智能機(jī)器人

2022-07-18 10:40:29

人工智能AI

2020-06-16 17:43:57

人工智能AI

2023-11-01 06:55:05

人工智能可觀測(cè)性IT

2024-03-15 14:26:28

2021-08-19 17:25:30

人工智能機(jī)器學(xué)習(xí)自動(dòng)化

2018-05-28 11:41:39

AR

2021-01-27 11:56:45

AIops人工智能AI

2022-07-22 18:47:30

AIOmniverse

2021-03-08 10:49:45

人工智能

2021-10-18 10:59:27

人工智能機(jī)器學(xué)習(xí)技術(shù)

2021-09-22 14:16:36

人工智能AI

2021-02-25 10:23:01

人工智能科技機(jī)器學(xué)習(xí)

2021-07-28 13:29:44

人工智能指令技術(shù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)