偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

你的人工智能準備好接受監(jiān)管了嗎?

人工智能
歐盟(EU)通過《通用數(shù)據(jù)保護條例》(GDPR-General Data Protection Regulation)已經6年了,這是一項內容廣泛且復雜的監(jiān)管法規(guī),旨在加強并統(tǒng)一對歐盟內所有的個人數(shù)據(jù)保護。中國的個人信息保護法也于去年11月開始正式實施。

現(xiàn)在,隨著圍繞人工智能(AI)的類似法規(guī)在世界多個地區(qū)開始實施,業(yè)界對GDPR的經驗可以告訴企業(yè)如何準備應對對其人工智能的不可避免的監(jiān)管審查。

公司應該面對現(xiàn)實

GDPR的某些部分引起了不小的企業(yè)恐慌,因為當時的新規(guī)定要求企業(yè)提供準確和可理解的解釋,說明算法分析(特別指機器學習模型)是如何做出決策的。條例賦予個人要求和接受自動化決策解釋的權利,盡管很少有消費者在這一領域真實地行使他們的權利。

不過,盡管GDPR已經問世六年,但都沒有催生出一個關于機器學習可解釋性的行業(yè)標準。因為我們仍在尋找理解和控制分析的明確準則,從更廣泛的角度來看,最終的人工智能監(jiān)管之路也可能是一條坎坷的道路。

事實上,政府對人工智能技術的開發(fā)和使用方式進行監(jiān)管是不可避免的。其中一個主要原因是人工智能的自我調節(jié)有很高風險。

2021年進行的一項研究表明,在人工智能領域,高管們對公司的責任應該是什么沒有達成共識。例如,在參與研究的公司中,只有22%設有內部道德委員會。一些高管認為人工智能應用不需要符合道德規(guī)范,它們只需要被劃分為高風險或低風險即可。另一些人則因為沒有確定什么是“足夠公平”的工具,也沒有界定什么是偏見的標準而苦惱。

風險暴露(并最終與政府監(jiān)管相沖突)對于推動參與度非常重要,可以將人工智能提升到董事會層面的一個話題。如果首席風險官(CRO)沒有跟蹤人工智能風險,他們應該跟蹤。更有針對性的是,CRO應該倡導全面的企業(yè)人工智能治理框架,定義道德人工智能標準和模型開發(fā)程序,以一種他們能夠支持的方式,并經得起監(jiān)管審查。

雖然GDPR可能沒有引發(fā)個人消費者對分析決策的內部工作方式的擔憂激增,但就連專家也認為人工智能的強勁勢頭絕對不是什么好兆頭。一份2021年的皮尤研究報告指出:

大量(專家)受訪者認為,地緣政治和經濟競爭是AI開發(fā)者的主要驅動力,而道德問題則是次要因素。這些專家中有一部分人表示,人工智能工具的創(chuàng)造者是在團隊中工作的,他們幾乎沒有或根本沒有動機去設計解決倫理問題的系統(tǒng)。

為了避免訴訟、消費者的不信任、維權團體的反彈,以及最終更廣泛的政府監(jiān)管,企業(yè)需要成長起來,擁有自己設計人工智能系統(tǒng)的方式,并面對和管理人工智能風險。

有很多人都在努力,想要變得合乎道德,但沒有多少人支持用具體、可衡量、清晰的術語定義“合乎道德的人工智能”。如果企業(yè)集體對GDPR的可解釋性部分不予回應,表明組織將如何應對新生的人工智能法規(guī),那么他們將難以理解新法規(guī)如何應用(以及哪些部分),合規(guī)將如何衡量,以及通過或失敗的門檻在哪里。這種解釋、衡量和門檻的混亂混合將導致更大范圍的混亂。

我們需要人工智能的道路規(guī)則

任何人工智能法規(guī)要想成功,都需要像高速公路系統(tǒng)一樣——有速度限制,違規(guī)行為可以客觀衡量和處罰。因此,由于企業(yè)和行業(yè)似乎無法就如何解釋分析決策或人工智能模型達成一致,因此需要引入專家,并賦予他們做出艱難決策的權力:定義可接受的特定工具和算法,并將行業(yè)衡量的通過/失敗指標標準化,而不是簡單的“自我報告”標準和關于如何滿足這些標準的大量混亂行動。

通過這種方式,我們可以客觀地衡量AI是如何發(fā)展的,它的功能是什么,它的工作做得好和正確,還是不好和錯誤?

國外某些行業(yè)在分析模型、分析決策、違規(guī)和處罰方面處于領先地位。例如抵押貸款行業(yè)就是一個很好的例子。信貸決策遵循旨在消除偏見和歧視的指導方針。不遵守規(guī)則(使用有偏見的數(shù)據(jù)、決策標準或模型)的銀行將面臨監(jiān)管機構的嚴厲處罰,并最終失去消費者的信任和業(yè)務。

法律將推動人工智能的倫理

人工智能倡導團體的崛起,比GDPR和相關法規(guī)預期的個人投訴擁有更大的影響力。這些團體正在推動人們更多地認識到人工智能對消費者生活的影響,當然,還有可能因有偏見的人工智能而承擔法律責任。最重要的是,風險暴露往往會促使企業(yè)解決人工智能的倫理和偏見問題,特別是在使用人工智能的創(chuàng)新企業(yè)是集體訴訟的目標的情況下。

責任編輯:華軒 來源: 今日頭條
相關推薦

2022-04-24 13:49:15

人工智能監(jiān)管機器學習

2022-08-10 13:07:16

人工智能大數(shù)據(jù)高管

2020-11-14 15:43:35

人工智能算法象棋

2020-10-29 15:38:26

人工智能

2023-12-26 10:47:34

人工智能云計算

2023-10-18 15:14:07

人工智能AI

2024-02-29 19:02:29

2017-01-20 14:27:14

人工智能

2022-08-31 07:19:41

量子計算人工智能

2023-07-27 10:04:03

數(shù)據(jù)中心生成式人工智能

2024-01-04 11:43:18

人工智能AI基礎設施

2023-06-16 14:06:44

人工智能Windows

2022-06-22 13:06:48

物聯(lián)網(wǎng)數(shù)字化轉型

2022-01-08 21:00:10

人工智能AI

2018-05-02 15:14:12

機器人人工智能科技

2023-11-07 08:46:27

人工智能Java

2018-08-31 06:02:40

物聯(lián)網(wǎng)IoT互聯(lián)網(wǎng)

2010-08-25 15:49:04

面試

2016-05-31 16:50:33

2015-12-15 10:47:35

中國外包網(wǎng)
點贊
收藏

51CTO技術棧公眾號