偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

負責(zé)任地使用AI如何創(chuàng)造更安全的在線空間

人工智能
人工智能算法已經(jīng)變得如此強大,一些專家將人工智能標(biāo)記為有感知能力以至于任何腐敗、篡改、偏見或歧視都可能對組織、人類生活和社會產(chǎn)生巨大影響。

  • 人工智能算法對人類生活和更廣泛的社會有著巨大的影響。
  • 圍繞人工智能的倫理困境包括數(shù)字差異及其武器化。
  • 自治應(yīng)該與人類監(jiān)督相平衡,同時應(yīng)該提高對人工智能的負責(zé)任使用,以便可以利用它來解決歧視問題。

在計算機進步、數(shù)據(jù)科學(xué)和龐大數(shù)據(jù)集的可用性的推動下,人工智能 (AI) 已成為強大的日?,F(xiàn)實和商業(yè)工具。大型科技公司如谷歌、亞馬遜和Meta現(xiàn)在正在開發(fā)基于人工智能的系統(tǒng)。該技術(shù)可以模仿人類語言、檢測疾病、預(yù)測犯罪活動、起草法律合同、解決可訪問性問題,并比人類更好地完成任務(wù)。對于企業(yè)而言,人工智能有望預(yù)測業(yè)務(wù)成果、改進流程并以大幅節(jié)省成本的方式提高效率。

但人們對人工智能的擔(dān)憂仍在增加。

人工智能算法已經(jīng)變得如此強大,一些專家將人工智能標(biāo)記為有感知能力以至于任何腐敗、篡改、偏見或歧視都可能對組織、人類生活和社會產(chǎn)生巨大影響。

數(shù)字鑒別

人工智能決策越來越大規(guī)模地影響和改變?nèi)藗兊纳?。不負?zé)任地使用它們會加劇現(xiàn)有的人類偏見和歧視性措施,例如種族定性、行為預(yù)測或性取向識別。之所以會出現(xiàn)這種固有的偏見,是因為 AI 的好壞取決于我們可以提供的訓(xùn)練數(shù)據(jù)量,而這很容易受到人類偏見的影響。

當(dāng)機器學(xué)習(xí)算法在未充分代表某些族群(例如女性、有色人種或特定年齡人口統(tǒng)計數(shù)據(jù)的人)的數(shù)據(jù)上進行訓(xùn)練和測試時,也會出現(xiàn)偏差。例如,研究表明,有色人種特別容易受到面部識別技術(shù)算法偏差的影響。

使用中也會出現(xiàn)偏差。例如,為特定應(yīng)用設(shè)計的算法可能會用于非預(yù)期目的,這會導(dǎo)致對輸出的誤解。

驗證 AI 性能

人工智能主導(dǎo)的歧視可能是抽象的、不直觀的、微妙的、無形的和難以察覺的。源代碼可能會受到限制,或者審計人員可能不知道算法是如何部署的。進入算法以查看其編寫方式和響應(yīng)方式的復(fù)雜性不容小覷。

當(dāng)前的隱私法依賴于通知和選擇;因此,很少有人閱讀由此產(chǎn)生的要求消費者同意冗長的隱私政策的通知。如果將此類通知應(yīng)用于人工智能,將對消費者和社會的安全和隱私產(chǎn)生嚴(yán)重后果。

人工智能作為武器

雖然真正的人工智能惡意軟件可能還不存在,但假設(shè)人工智能惡意軟件會增強攻擊者的能力并不牽強??赡苄允菬o窮無盡的——從環(huán)境中學(xué)習(xí)以識別和利用新漏洞的惡意軟件、針對基于人工智能的安全性進行測試的工具或可以用錯誤信息毒害人工智能的惡意軟件。

由人工智能操縱的數(shù)字內(nèi)容已經(jīng)被用于實時創(chuàng)建超逼真的個人合成副本(也稱為深度偽造)。因此,攻擊者將利用深度偽造來制造針對性很強的社會工程攻擊、造成經(jīng)濟損失、操縱輿論或獲得競爭優(yōu)勢。

“人工智能主導(dǎo)的歧視可能是抽象的、不直觀的、微妙的、無形的和難以察覺的。源代碼可能會受到限制,或者審計人員可能不知道算法是如何部署的。”— Steve Durbin,信息安全論壇首席執(zhí)行官

減輕與人工智能相關(guān)的風(fēng)險

由于人工智能決策越來越大規(guī)模地影響和影響人們的生活,企業(yè)有道德、社會和信托責(zé)任以合乎道德的方式管理人工智能的采用。他們可以通過多種方式做到這一點。

1、將道德轉(zhuǎn)化為指標(biāo)

道德 AI 遵守明確定義的道德準(zhǔn)則和基本價值觀,例如個人權(quán)利、隱私、非歧視,重要的是,非操縱。組織必須建立明確的原則來識別、衡量、評估和減輕人工智能主導(dǎo)的風(fēng)險。接下來,他們必須將它們轉(zhuǎn)化為實用的、可衡量的指標(biāo),并將其嵌入日常流程中。

2、了解偏見的來源

擁有正確的工具來調(diào)查偏見的來源并了解決策中公平的影響對于開發(fā)道德人工智能絕對至關(guān)重要。識別使用機器學(xué)習(xí)的系統(tǒng),確定它們對業(yè)務(wù)的重要性,并針對 AI 引起的偏差實施流程、控制和對策。

3、平衡自主權(quán)與人工監(jiān)督

組織應(yīng)建立一個跨領(lǐng)域倫理委員會,監(jiān)督組織和供應(yīng)鏈中人工智能系統(tǒng)引入的風(fēng)險的持續(xù)管理和監(jiān)控。委員會必須由來自不同背景的人組成,以確保對所有道德問題的敏感性。

算法的設(shè)計必須考慮到專家的意見、情境知識和對歷史偏見的認識。必須在關(guān)鍵領(lǐng)域(例如在金融交易中)強制執(zhí)行人工授權(quán)流程,以防止它們被惡意行為者破壞。

4、賦予員工權(quán)力并提升負責(zé)任的人工智能

培育一種文化,使個人能夠在不扼殺創(chuàng)新的情況下提出對人工智能系統(tǒng)的擔(dān)憂。通過透明地處理角色、期望和責(zé)任來建立對 AI 的內(nèi)部信任和信心。認識到對新角色的需求并積極提升技能、重新技能或雇用。

如果需要,可以通過提供更好的控制權(quán)和對追索權(quán)的訪問來授權(quán)用戶。強大的領(lǐng)導(dǎo)力對于賦予員工權(quán)力和將負責(zé)任的人工智能提升為業(yè)務(wù)必要性也至關(guān)重要。

5、利用人工智能解決歧視問題

程序化檢查是評估人類公平性的傳統(tǒng)方法,可以通過在人類決策過程中運行算法、比較結(jié)果并解釋機器主導(dǎo)決策背后的原因來從人工智能中受益。另一個例子是麻省理工學(xué)院關(guān)于打擊系統(tǒng)性種族主義的研究計劃,該計劃致力于開發(fā)和使用計算工具在社會的許多不同部門創(chuàng)造種族平等。

責(zé)任編輯:姜華 來源: 千家網(wǎng)
相關(guān)推薦

2023-10-18 13:21:24

2023-07-30 16:08:06

人工智能開發(fā)

2022-07-21 15:00:19

人工智能機器學(xué)習(xí)數(shù)據(jù)隱私

2023-07-11 14:41:04

2022-08-05 08:00:00

機器學(xué)習(xí)數(shù)據(jù)API

2022-05-26 09:22:37

惡意技術(shù)負責(zé)任技術(shù)技術(shù)

2024-11-15 16:39:35

2021-12-08 23:26:11

人工智能企業(yè)技術(shù)

2023-09-22 14:57:56

人工智能

2023-04-03 15:37:25

人工智能首席信息官

2024-03-27 11:35:27

亞馬遜云科技Anthropic埃森哲

2010-07-30 15:53:30

2024-10-11 09:12:15

2023-04-13 10:51:42

2020-07-10 11:01:33

智能家居安全黑客攻擊

2025-06-16 08:24:44

2014-06-06 14:33:29

BYOD移動安全

2023-04-10 07:03:38

人工智能商業(yè)問題技術(shù)問題

2015-10-19 13:19:57

2015-10-26 10:26:13

點贊
收藏

51CTO技術(shù)棧公眾號