偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

“公平”,人工智能做得到嗎?

人工智能
在科技發(fā)展如此迅速的當下,體育賽事可不可以應(yīng)用人工智能技術(shù)作為輔助判罰手段呢?

2020東京奧運會一如既往地緊張激烈。7月28日體操男子個人全能決賽中,中國選手肖若騰在賽場上的表現(xiàn),可以稱得上是發(fā)揮完美、零失誤。但最終,肖若騰以88.065分的成績僅摘得男子個人全能銀牌。 

[[414848]] 

遺憾之余我們想問,在追求公平的道路上,還有多少難題未決?

在科技發(fā)展如此迅速的當下,體育賽事可不可以應(yīng)用人工智能技術(shù)作為輔助判罰手段呢?

人工智能裁判發(fā)展水平

在2013年,NBA就引入Sport VU系統(tǒng),通過懸掛在每個競技場天花板上方的6個3D高清攝像頭與計算機數(shù)據(jù)分析連接,每臺相機每秒可拍攝25幅圖像,各類傳感器與超級攝像機相連,動態(tài)捕捉、跟蹤分析、提取數(shù)據(jù),并將處理后的數(shù)據(jù)輸入NBA數(shù)據(jù)庫。NBA的金州勇士隊作為硅谷科技大亨和技術(shù)狂人們的寵兒,在此系統(tǒng)幫助下,奪得2018年NBA總冠軍。金州勇士隊也從此被譽為“NBA中的谷歌”。

目前,有關(guān)人工智能技術(shù)在體育比賽中應(yīng)用的研究相對較少,主要集中在輔助判罰方面,也就是“鷹眼”在網(wǎng)球、排球等項目中應(yīng)用。所謂的“鷹眼”,又稱即時回放系統(tǒng)。它利用高速攝像機從不同角度捕捉在快速運動中的目標軌跡,確定起止點,輔助裁判評判比賽。“鷹眼”存在的意義在于,它克服了人類眼睛觀察能力上存在的缺陷,幫助裁判做出精確公允的判斷結(jié)果。

2018年俄羅斯世界杯中,賽場采用視頻助理裁判VAR系統(tǒng),其利用視頻回放幫助裁判做出決定。這是VAR系統(tǒng)首次應(yīng)用于足球世界杯這項頂級賽事。小組賽階段平均每場比賽使用VAR 6.9次,借助VAR使判罰正確率從95%提高到99.3%。

那么類似地,是不是在武術(shù)、舞蹈、跳水等體育運動中,使用人工智能就可以降低裁判的主觀性,使比賽更加公平公正呢?

實際上,目前人工智能裁判技術(shù)離成熟還有很長的距離,體育人工智能技術(shù)還遠遠滯后于計算機科學的發(fā)展,存在著一系列軟件和硬件匹配的問題。 

“算法歧視”

人工智能裁判替代人類裁判最大的難題是讓機器“看懂”體育比賽,但反過來,有機會使用了這項技術(shù)的我們,往往也很難“看懂”人工智能。

隨著算法復雜程度的日益提高,通過機器學習過程形成的決策越來越難以解釋AI內(nèi)部的代碼,也就是說,算法存在“黑箱”,導致人們無法控制和預測算法的結(jié)果,而在應(yīng)用中產(chǎn)生某種不公平傾向。

一般情況下,基于算法“黑箱”以及普通消費者對平臺定價方案的信任,用戶們通常不會質(zhì)疑自己的購買價格與其他消費者不同,更難以識別出如此隱蔽又“聰明”的價格歧視,而廣大消費者就在這種毫不知情的情況下被迫接受各個平臺差異化的付費模式,這就是所謂的“大數(shù)據(jù)殺熟”,也是不公正現(xiàn)象的體現(xiàn)。

目前市場上廣泛應(yīng)用的大多數(shù)人工智能系統(tǒng)都是不透明的,加上商業(yè)秘密的保護制度,這意味著它們通常能夠規(guī)避審查,脫離現(xiàn)有的監(jiān)管體系,在缺乏外部監(jiān)督的情形下,不僅僅可能增加歧視性操縱,在算法使用者的有意遮掩下,還可能將算法黑箱逐漸遷移至監(jiān)管的真空地帶,導致既有的監(jiān)管體系無法有效打開算法“黑箱”。

華南理工大學的肖田認為,“期望算法、模型等數(shù)學方法重塑一個更加客觀公正的現(xiàn)實社會”的“數(shù)學洗腦”式想法未免過于一廂情愿。

“算法歧視”的本質(zhì)是延伸了人類現(xiàn)實世界中的社會歧視。《自然》雜志曾發(fā)表社論,認為大數(shù)據(jù)算法中不容忽視的潛在風險使它們有可能增加偏見,并復制或加劇人類的錯誤。并指出大數(shù)據(jù)算法應(yīng)該承擔更多責任,并消除或減少社會歧視,而非加劇社會歧視。也就是說,大數(shù)據(jù)是一面反映人類社會生活的鏡子,算法通過分析歷史數(shù)據(jù)預測未來,而人類直到現(xiàn)在仍然未能消除的歧視和偏見,很可能通過大數(shù)據(jù)導入算法。

原始訓練數(shù)據(jù)存在偏見,在算法執(zhí)行時可能將這些偏見帶入決策過程。鑒于算法本身不會質(zhì)疑其所接收到的數(shù)據(jù),只是單純地尋找、挖掘數(shù)據(jù)背后隱含的結(jié)構(gòu)和模式,如果人類輸入給算法的數(shù)據(jù)一開始就存在某種偏見或喜好,那么算法獲得的輸出結(jié)果也會與人類偏見相同。

一方面,算法的應(yīng)用具有機制化和廣泛性,一個算法模型通常會被重復使用,由此造成的影響就會越來越大。

這方面影響是否可以通過技術(shù)本身進行消除呢?亞利桑那大學人工智能實驗室研究人員Ahmed Abbasi在《哈佛商業(yè)評論》發(fā)表了文章,以數(shù)據(jù)作為切入點,闡釋了若干防止算法歧視的方法。其中之一的對策是“過度抽樣”,即從人口學的統(tǒng)計方法出發(fā)來設(shè)計算法模型,提高算法輸出結(jié)果的準確率。除此之外,“將額外的公平性措施引入機器學習,比如手工放大、縮小少數(shù)族群或邊緣案例的重要性”也可以用來糾正算法模型產(chǎn)生的歧視。

但僅僅如此仍然不夠。因為另一方面,算法偏見不僅會帶來計算結(jié)果的偏差,還將導致倫理、法律風險,這一方面的矛盾在醫(yī)療領(lǐng)域尤為突出。

目前,在醫(yī)院內(nèi)實際應(yīng)用過程中還未有針對AI的倫理審查機制,有醫(yī)院參照藥物臨床試驗引入的倫理審查機制對醫(yī)療AI引入進行倫理審查,但很難做到完全適用。更多醫(yī)院對醫(yī)療AI的引入并未經(jīng)過倫理審查,也有醫(yī)院在對患者應(yīng)用醫(yī)療AI系統(tǒng)時嘗試用患者知情同意書來規(guī)避一些潛在風險。

國家藥品監(jiān)督管理局出臺了對醫(yī)療AI的相關(guān)指導規(guī)范,并已啟動了認證流程,從范圍、風險、臨床試驗上進行了規(guī)定。

當前階段,醫(yī)療AI的最后結(jié)果仍需要人工校驗審核,醫(yī)生承擔由此對患者診療結(jié)局的責任。未來臨床廣泛引入醫(yī)療AI后如何實現(xiàn)問責,現(xiàn)在仍不明確。 

人工智能法律規(guī)制

如同大數(shù)據(jù)專家、《大數(shù)據(jù)時代》一書的作者舍恩伯格所說,大數(shù)據(jù)的特征是追求效率,而不是絕對精確;追求的是相關(guān)性,而不是因果性,在現(xiàn)代社會,大數(shù)據(jù)和算法結(jié)合已經(jīng)顛覆了傳統(tǒng)的決策方式。那么,是否存在一種價值中立的平等算法,或者說存在憲法和法律平等保護的“唯一正確答案”,以供法院來遵循或借鑒呢?中國人民大學法學院的丁曉東副教授表示:“這是一個不可能的任務(wù)。”

中國社會科學院法學研究所助理研究員徐斌認為,算法應(yīng)用過程產(chǎn)生的偏見與歧視暫時還未成為中國社會關(guān)注的焦點,而且在“弱人工智能”的語境下,針對人工智能展開的種種法律規(guī)制都需要和具體的應(yīng)用場景相結(jié)合。由于立法活動不能對快速變化的社會關(guān)系進行規(guī)范,所以可能我們現(xiàn)在還無法對人工智能采取一般化的法律規(guī)制。這意味著,我們目前需要在摸索中構(gòu)建和完善治理算法歧視的各項法律規(guī)制。

目前,我國對包括算法歧視在內(nèi)的人工智能法律規(guī)制仍然處于起步階段,在監(jiān)管層面上,目前在針對電子商務(wù)的立法中已經(jīng)有個別條款對算法歧視進行了規(guī)范。比如,《電子商務(wù)法》的第18條首次明確對“大數(shù)據(jù)殺熟”做出因應(yīng),該條款規(guī)定電商平臺在進行商品推薦和廣告推送的同時也要向消費者展示不包含用戶畫像的服務(wù)內(nèi)容。此外,《電子商務(wù)法》的第40條還對搜索引擎服務(wù)中的競價排名予以規(guī)定,它要求服務(wù)商必須顯著地標明相關(guān)信息,實際上該條款對算法控制者提出了信息披露義務(wù)。

國務(wù)院于發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,該指導文件明確要求政府在風險控制和市場監(jiān)督等方面履行相應(yīng)的職能,并圍繞人工智能建立“全流程型”監(jiān)管體系。

“通過算法稽查、無監(jiān)督訓練等方式避免或糾正偏見,保持人工智能透明公正是發(fā)展的必由之路。”上海交通大學附屬兒童醫(yī)院院長于廣軍表示。

一方面,監(jiān)管部門定期審查算法控制者所使用的算法是否符合預定軌道,是否造成歧視性后果。如果自動化算法對受保護群體產(chǎn)生差別性影響,那么監(jiān)管部門應(yīng)當將審查結(jié)果向公眾披露。另一方面,在算法透明性缺失的情況下,監(jiān)管部門應(yīng)當審查算法控制者是否提供了必要的訪問途徑,以便于個人或組織能夠?qū)彶槟切┯绊懝怖娴乃惴ā?/p>

公平是相對的,不公平反而是絕對的。人工智能作為一項充滿無限想象力的全新技術(shù),不僅沒有顛覆這個道理,反而驗證了它,甚至給出了算法歧視這個前所未有的難題。面對這樣的現(xiàn)實,如果求得公正的方案是無解,那么唯有搶先擁有制定規(guī)則的話語權(quán),以更強大的實力取勝。

 

責任編輯:華軒 來源: 中國戰(zhàn)略新興產(chǎn)業(yè)
相關(guān)推薦

2019-03-05 14:07:50

機器人人工智能AI

2014-08-28 08:57:37

2016-08-09 09:18:04

云計算

2014-07-02 21:01:42

JMP

2022-06-22 11:11:48

人工智能AI

2020-01-03 09:01:01

Web機器人人工智能

2022-04-13 14:15:50

人工智能機器人上海

2022-09-08 09:23:36

人工智能AI

2023-06-16 15:26:45

人工智能開發(fā)Rockset

2021-03-04 11:46:56

人工智能AI深度學習

2022-07-11 10:09:53

人工智能氣候危機

2022-05-27 08:16:35

端點安全人工智能網(wǎng)絡(luò)安全

2018-07-02 17:31:00

電商

2022-06-20 14:52:36

人工智能ROI

2022-08-01 15:41:23

人工智能機器學習方法

2022-07-04 15:29:59

人工智能機器計算機

2021-08-22 15:09:02

人工智能機器技術(shù)

2016-11-16 09:35:44

IBM POWER 服

2021-10-18 09:21:42

人工智能AI

2022-10-19 07:04:12

?人工智能云服務(wù)Alaas
點贊
收藏

51CTO技術(shù)棧公眾號