偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

歐洲推進人工智能監(jiān)管

人工智能
上周,歐洲立法者以壓倒性多數(shù)投票支持具有里程碑意義的人工智能法規(guī)《歐盟人工智能法案》(EU AI Act)。雖然該法案還沒有法律效力,但一邊倒的投票表明它很快就會在歐盟生效。

上周,歐洲立法者以壓倒性多數(shù)投票支持具有里程碑意義的人工智能法規(guī)《歐盟人工智能法案》(EU AI Act)。雖然該法案還沒有法律效力,但一邊倒的投票表明它很快就會在歐盟生效。在其他國家,公司仍然可以自由使用人工智能。例如,到目前為止,美國對人工智能代表的是風險還是機遇缺乏共識。

歐洲議會499名議員投了贊成票,28人反對,93人棄權(quán),以較大優(yōu)勢通過了《人工智能法案》草案。在議會成員、歐盟委員會和歐盟理事會進行談判后,今年晚些時候可能會進行最終投票。

2021年4月首次提出的《歐盟人工智能法案》將限制公司在其產(chǎn)品中使用人工智能的方式;要求人工智能以安全、合法、合乎道德和透明的方式實施;強制公司獲得某些人工智能用例的事先批準;并要求公司監(jiān)控其人工智能產(chǎn)品。

人工智能法將根據(jù)不同的人工智能使用帶來的風險對其進行排名并將其分為四類,并要求公司在人工智能給客戶使用之前達到相應安全標準。

圖片

第一類風險最小的人工智能,如垃圾郵件過濾器或視頻游戲,可以繼續(xù)像以往一樣使用,并且不受透明度要求的約束。

第二類人工智能被稱為“風險有限”,這一類別包括OpenAI的ChatGPT或谷歌的Bard等聊天機器人。根據(jù)擬議的法律,為了遵守《歐盟人工智能法案》,必須告知用戶他們正在與聊天機器人互動。

第三類是組織需要對所謂的高風險人工智能系統(tǒng)進行影響評估和審計,其中包括自動駕駛汽車,以及教育、移民和就業(yè)方面的決策支持系統(tǒng)。歐洲中央政府將在一個中央數(shù)據(jù)庫中跟蹤高風險的人工智能使用案例。

第四類被認為具有“不可接受”風險的人工智能,在歐盟永遠不會被允許,即使有審計和監(jiān)管。這種被禁止的人工智能的包括實時生物特征監(jiān)測和社會評分系統(tǒng)。不遵守規(guī)定可能會被處以相當于公司收入6%或7%的罰款。

法案投票結(jié)果表明大多數(shù)人支持人工智能已經(jīng)失控,需要加以控制的觀點。一些著名的人工智能開發(fā)者最近呼吁禁止或暫停人工智能研究,包括Geoffrey Hinton和Yoshua Bengio,他們?yōu)槠占艾F(xiàn)代神經(jīng)網(wǎng)絡做出了巨大貢獻。如今他們簽署了人工智能安全中心的一份聲明,呼吁將人工智能視為全球風險。

Hinton今年初辭去了谷歌的工作,以便能夠更自由地談論人工智能的威脅,他將人工智能比作核武器。在5月3日Hinton對美國有線電視新聞網(wǎng)說:“我只是一個突然意識到這些東西比我們更聰明的科學家?!薄啊覀儜撜J真考慮如何阻止這些事情控制我們?!?/span>

然而,并不是所有的人工智能研究人員或計算機科學家都認同這一觀點。Yann LeCun是Facebook母公司meta的人工智能研究負責人,他與Hinton和Bengio一起因在神經(jīng)網(wǎng)絡方面的集體工作而獲得2018年圖靈獎,他一直直言不諱地認為,現(xiàn)在不是監(jiān)管人工智能的合適時機。

LeCun近期在推特上表示,他認為“過早的監(jiān)管會扼殺創(chuàng)新”,特別是在提到新的歐盟人工智能法案時。

LeCunn上周在法國巴黎舉行的VivaTech會議上表示:“從總體上講,人工智能本質(zhì)上是好的,因為人工智能的作用是讓人們變得更聰明。”“你可以把人工智能視為人類智慧的放大器。當人們更聰明時,事情就會發(fā)生。人們的生產(chǎn)力更高,更快樂?!?/span>

圖片

Meta的人工智能主管Yann LeCun在VivaTech上表示:“你可以把人工智能視為人類智能的放大器?!?/em>

LeCunn繼續(xù)說道:“現(xiàn)在毫無疑問,壞人可以利用它來做壞事?!薄叭缓笫且粋€問題,好人是否比壞人多。”

商業(yè)轉(zhuǎn)型專家Kamales Lardi表示,正如歐盟的《通用數(shù)據(jù)保護條例》(GDPR)構(gòu)成了其他國家和美國各州(如加利福尼亞州)許多數(shù)據(jù)隱私法的基礎(chǔ)一樣,擬議的《歐盟人工智能法案》將為世界各地的人工智能監(jiān)管開辟道路。

她說:“歐盟的法案可能會成為一項全球標準,對人工智能如何影響我們的生活以及如何在全球范圍內(nèi)對其進行監(jiān)管產(chǎn)生影響。”“然而,該法案也有局限性……監(jiān)管應側(cè)重于在創(chuàng)新和技術(shù)錯誤應用之間取得智能平衡。該法案也不靈活,沒有考慮到人工智能發(fā)展的指數(shù)級速度,一兩年后人工智能的發(fā)展速度可能與今天大不相同?!?/span>

總部位于倫敦的人工智能公司Encord的聯(lián)合創(chuàng)始人兼總裁Ulrik Stig Hansen表示,現(xiàn)在不是監(jiān)管人工智能的合適時機。“我們聽說過太大而無法監(jiān)管,但太早怎么辦?”“按照歐盟的傳統(tǒng)方式,他們正在尋求監(jiān)管一項新技術(shù),而這項技術(shù)很少有企業(yè)或消費者采用,也很少有人在這一點上進行開發(fā)。”他說,由于我們還沒有牢牢把握人工智能系統(tǒng)固有的風險,現(xiàn)在制定監(jiān)管人工智能的法律還為時過早。

“一個更明智的方法可能是相關(guān)行業(yè)機構(gòu)像監(jiān)管其他技術(shù)一樣監(jiān)管人工智能?!薄叭斯ぶ悄茏鳛橐环N醫(yī)療設備,是一個很好的例子,它需要獲得美國食品藥品監(jiān)督管理局(FDA)的批準或CE標志。這與我們在英國看到的情況一致,英國采取了更務實的支持創(chuàng)新的方法,并將責任交給了人工智能應用領(lǐng)域的現(xiàn)有監(jiān)管機構(gòu)?!?/span>

雖然美國目前還沒有制定人工智能法規(guī),但正在采取措施,指導各組織合乎道德地使用人工智能。今年1月,美國國家標準與技術(shù)研究所(NIST)發(fā)布了《人工智能風險管理框架》(RMF),該框架指導各組織完成人工智能系統(tǒng)的規(guī)劃、衡量、管理和治理過程。RMF有幾件事要做,包括有可能成為多方認可的法律標準。更重要的是,它保留了適應快速變化的人工智能技術(shù)的靈活性,這是《歐盟人工智能法案》所缺乏的。

責任編輯:華軒 來源: Ai時代前沿
相關(guān)推薦

2022-06-11 22:58:16

人工智能機器學習機器人

2023-11-03 15:29:47

2023-10-09 11:05:33

人工智能

2024-05-07 15:06:43

人工智能法案AI

2023-07-10 06:35:17

人工智能法律監(jiān)管

2024-12-23 05:00:00

AI人工智能

2021-01-22 10:41:40

人工智能開源深度學習

2018-04-26 16:20:15

世界級歐洲人工智能

2022-10-24 11:06:24

人工智能法案AIA

2022-06-14 11:50:44

人工智能法案機器學習

2024-01-22 16:00:38

人工智能大型語言模型

2022-04-21 23:38:44

人工智能監(jiān)管機器學習

2022-04-24 13:49:15

人工智能監(jiān)管機器學習

2024-01-22 15:28:59

人工智能金融危機

2022-10-19 07:04:12

?人工智能云服務Alaas

2022-06-20 11:05:58

通用人工智能機器人

2019-09-25 11:51:56

人工智能AI

2019-09-23 20:46:34

人工智能社會治理互聯(lián)網(wǎng)

2020-12-15 13:44:32

人工智能AI

2018-03-26 15:46:06

點贊
收藏

51CTO技術(shù)棧公眾號